Более тысячи человек, в число которых вошли профессора и ИИ-разработчики, подписали открытое письмо, обращенное ко всем лабораториям, занимающимся разработкой искусственного интеллекта. В послании, опубликованном некоммерческой организацией Future of Life, эксперты призывают немедленно приостановить разработку и обучение ИИ, более мощных, чем GPT-4, хотя бы на полгода.
Письмо подписали многие известные люди, которые занимаются разработкой и технологиями в сфере ИИ, в том числе: соучредитель OpenAI Илон Маск, математик, кибернетик и информатик, наиболее известный работами в области искусственного интеллекта, а также основатель Mila Иошуа Бенджио, соучредитель Apple Стив Возняк, глава Stability AI Эмад Мострак, пионер исследований в области ИИ Стюарт Рассел, а также основатель Geometric Intelligence Гэри Маркус.
В открытом письме упоминаются потенциальные риски для общества и человечества, возникающие в результате быстрого развития передовых ИИ-систем в отсутствии общих протоколов безопасности. Подписавшиеся считают, что потенциальные риски этой «революции» еще только предстоит всецело оценить и учесть с помощью комплексной системы управления, тогда как положительный эффект от этих технологий не гарантирован.
«Продвинутый ИИ может повлечь за собой значительные изменения в истории жизни на Земле, и его следует планировать и управлять им с соответствующий оторожностью и ресурсами, — гласит послание. — К сожалению, такого планирования и управления не происходит, невзирая на то, что в последние месяцы ИИ-лаборатории ввязались в неконтролируемую гонку по разработке и внедрению все более мощных цифровых разумов, которые никто (вклюая их создателей) не может понять, предсказать или надежно контролировать».
Также письмо предупреждает, что современные ИИ-системы уже напрямую конкурируют с людьми в выполнении общих задач, что поднимает ряд экзистенциальных и этических вопросов, которые человечеству все еще необходимо рассмотреть, обсудить и решить.
Некоторые из этих вопросов касаются потока информации, генерируемой ИИ, неконтролируемой автоматизации рабочих мест, развития систем, которые превосходят человека, и из-за которых люди могут «устареть», а также контроля над цивилизацией в целом.
Эксперты считают, что мы достигли того момента, когда следует обучать более продвинутые ИИ-системы только под строгим надзором и лишь имея уверенность в том, что риски, возникающие при их развертывании, управляемы.
«Поэтому мы призываем все ИИ-лаборатории немедленно приостановить обучение ИИ-систем, более мощных, чем GPT-4, как минимум на шесть месяцев, — говорится в письме. — Эта пауза должна быть публичной и подающейся проверке, и она должна затрагивать всех ключевых участников. Если такая пауза не может быть взята быстро, правительства должны вмешаться и ввести мораторий».
Во время этой паузы разработчикам ИИ предлагается собраться вместе и договориться о создании единых протоколов безопасности, которые затем смогут использоваться для аудитов, проводимых внешними независимыми экспертами.
Кроме того, подписанты полагают, что политикам следует принять защитные меры и заняться регулированием данной сферы. В частности, предлагается создать систему «водяных знаков», позволяющих эффективно отличать подлинный контент от фальшивого, проработать возможность возложения ответственности за вред, причиненный материалами, созданными ИИ, а также выделить государственное финансирование на исследование рисков, связанных с ИИ.
Письмо не содержит призывов полностью прекратить разработку ИИ. В нем напротив подчеркиваются потенциальные опасности, связанные с растущей конкуренцией между разработчиками ИИ, стремящимися занять свою нишу на быстро растущем рынке.
«С ИИ человечество может наслаждаться прекрасным будущим. Преуспев в создании мощных ИИ-систем, мы можем наслаждаться "расцветом ИИ" и пожинать плоды, разрабатывая эти системы для всеобщего блага и давая обществу шанс адаптироваться. Общество приостановило развитие других технологий, несущих потенциально катастрофические последствия. Мы можем поступить так же и здесь», — заключают эксперты.