Ведущие предприниматели и ученые в области высоких технологий призывают прекратить обучение самых мощных нейросетей в течение как минимум шести месяцев, ссылаясь на «серьезные риски для общества и человечества». Десятки технических специалистов, ученых и бизнесменов, подписали письмо, опубликованное Институтом будущего человечества (Future of Humanity Institute). Среди подписантов, в частности, Илон Маск, Стив Возняк, Эвон Шарп и множество других экспертов.
Это письмо было написано через две недели после того, как OpenAI анонсировала GPT-4, еще более мощную версию технологии, которая лежит в основе чат-бота AI ChatGPT. В ранних тестах возможности этого чат-бота демонстрировались при составлении судебных исков, сдаче экзаменов и создании рабочего веб-сайта по нарисованному от руки эскизу.
ChatGPT — это нейросеть, разработанная компанией OpenAI. С помощью этой технологии можно писать стихи и прозаические тексты, искать ошибки в программном коде и многое другое. ChatGPT способен даже вести диалог и спорить. Этот чат-бот стал вторым в истории человечества искусственным интеллектом, прошедшим тест Тьюринга.
В письме говорится, системы ИИ, «более мощные, чем GPT-4», должны быть поставлены на паузу. Авторы настаивают, что этот перерыв следует использовать для совместной разработки и внедрения набора общих протоколов для инструментов искусственного интеллекта. В частности. в письме говорится:
Продвинутый ИИ может стать причиной серьезного изменения жизни на Земле. Его использование нуждается в регуляции и планировании. К сожалению, такого уровня планирования не происходит, хотя в последние месяцы лаборатории ИИ участвуют в неконтролируемой гонке по разработке и развертыванию все более мощного цифрового разума, который никто — даже его создатели — не может понять, предсказать или надежно контролировать.
Авторы письма уверены, что если пауза не будет введена в ближайшее время, правительствам следует вмешаться и ввести мораторий на дальнейшую разработку ИИ.
О том, нужны ли этические ограничения для искуственного интеллекта, читайте в статье “Моральный кодекс для ИИ”
Эксперты по искусственному интеллекту все больше обеспокоены потенциалом инструментов нейросетей, которые можно использовать для предвзятых ответов, распространения дезинформации и нарушение конфиденциальности потребителей. Эти инструменты также вызывают вопросы о том, как ИИ может повлиять на обучение студентов и стать причиной серьезных изменений на рынке труда.