Риски и проблемы с ИИВы, наверное, читали о проблемах с текущими моделями ИИ. Например, они не обязательно хорошо понимают контекст запроса человека, что приводит к некоторым странным результатам. Когда вы просите ИИ придумать что-то выдуманное, он может это сделать хорошо. Но когда вы спрашиваете совета о поездке, которую хотите совершить, вам могут предложить несуществующие отели. Это связано с тем, что ИИ недостаточно хорошо понимает контекст вашего запроса, чтобы понять, следует ли ему изобретать поддельные отели или только сообщать вам о реальных, в которых есть свободные номера.
Есть и другие проблемы, например, ИИ дает неправильные ответы на математические задачи, потому что у них проблемы с абстрактными рассуждениями. Но ни одно из них не является фундаментальным ограничением искусственного интеллекта. Разработчики работают над ними, и я думаю, что мы увидим, как они будут исправлены менее чем за два года, а возможно, и намного быстрее.
Другие проблемы не просто технические. Например, есть угроза, исходящая от людей, вооруженных ИИ. Как и большинство изобретений, искусственный интеллект можно использовать как в благих целях, так и во зло. Правительствам необходимо работать с частным сектором над способами ограничения рисков.
Тогда есть вероятность, что ИИ выйдет из-под контроля. Может ли машина решить, что люди представляют угрозу, прийти к выводу, что ее интересы отличаются от наших, или просто перестать заботиться о нас? Возможно, но сегодня эта проблема не более актуальна, чем до разработки ИИ последних нескольких месяцев.
Сверхразумные ИИ в нашем будущем. По сравнению с компьютером наш мозг работает со скоростью улитки: электрический сигнал в мозгу движется со скоростью 1/100 000 скорости сигнала в кремниевом чипе! Как только разработчики смогут обобщить алгоритм обучения и запустить его со скоростью компьютера — достижение, на которое может уйти десятилетие или столетие, — у нас появится невероятно мощный ОИИ. Он сможет делать все, что может человеческий мозг, но без каких-либо практических ограничений на размер его памяти или скорость, с которой он работает. Это будет глубокое изменение.
Эти «сильные» ИИ, как их называют, вероятно, смогут устанавливать свои собственные цели. Каковы будут эти цели? Что произойдет, если они вступят в противоречие с интересами человечества? Должны ли мы пытаться предотвратить разработку сильного ИИ? Эти вопросы со временем станут более актуальными.
Но ни один из прорывов последних нескольких месяцев не приблизил нас существенно к сильному ИИ. Искусственный интеллект по-прежнему не контролирует физический мир и не может устанавливать собственные цели. Недавняя
статья в New York Times о разговоре с ChatGPT, в котором он заявил, что хочет стать человеком, привлекла большое внимание. Это был захватывающий взгляд на то, насколько человеческим может быть выражение эмоций модели, но это не показатель значимой независимости.
Три книги сформировали мое собственное мышление по этому вопросу:
«Сверхразум» Ника Бострома;
Life 3.0 от Макса Тегмарка; и
«Тысяча мозгов» Джеффа Хокинса. Я не согласен со всем, что говорят авторы, и они не согласны друг с другом. Но все три книги хорошо написаны и заставляют задуматься.