Джеффри Хинтон, которого называют «крестным отцом искусственного интеллекта», предупреждает об опасности использования искусственного интеллекта. Хинтон уходит из компании Google, так что его больше не сковывает корпоративная этика и он может говорить свободно. До сих пор он хранил молчание и не подписал ни одного письма с требованием государственного регулирования разработок в области искусственного интеллекта.
Однако 27 апреля он уволился и уже в понедельник 1 мая присоединился к растущему хору критиков, которые говорят об опасности продуктов на основе генеративного искусственного интеллекта. Забавно, но именно Джеффри Хинтон в течение полувека развивал технологию, лежащую в основе чат-ботов, таких как ChatGPT. Теперь он беспокоится, что это может нанести серьезный вред всему человечеству.
О чем предупреждают ученые и предприниматели в письме, опубликованном Институтом будущего человечества, читайте в статье “ИИ становится угрозой”
Путь Хинтона
В свое время Джеффри Хинтон был пионером искусственного интеллекта. В 1972 году, являясь аспирантом Эдинбургского университета, доктор Хинтон придумал нейронную сеть — математическую систему, которая обучается навыкам, анализируя данные. Тогда мало кто из исследователей верил в эту идею. Вскоре, в 1980-х годах доктор Хинтон стал профессором компьютерных наук в Университете Карнеги-Меллона, но уехал из университета в Канаду, потому что, по его словам, он не хотел брать деньги Пентагона. В 2012 году доктор Хинтон и два его ученика в Торонто, Илья Суцкевер и Алекс Кришевский, построили нейронную сеть, которая могла анализировать тысячи фотографий и учиться идентифицировать обычные объекты, например цветы, собак и автомобили.
Google потратил 44 миллиона долларов на приобретение компании, основанной доктором Хинтоном и двумя его учениками. Их система привела к созданию еще более мощных технологий, включая новых чат-ботов, таких как ChatGPT и Google Bard. Суцкевер стал главным научным сотрудником OpenAI. А в 2018 году доктор Хинтон и два других давних сотрудника получили премию Тьюринга, которую часто называют «Нобелевской премией по вычислительной технике», за свою работу над нейронными сетями. Примерно в то же время Google, OpenAI и другие компании начали создавать нейронные сети, которые учились на огромных объемах цифрового текста. Однако сегодня доктор Хинтон говорит, что сожалеет о деле своей жизни:
Я утешаю себя обычным оправданием: если бы я этого не сделал, это сделал бы кто-то другой.
Опасный и непредсказуемый искусственный интеллект
Путь доктора Хинтона от первопроходца искусственного интеллекта до предсказателя мрачного будущего знаменует собой переломный момент для технологической отрасли. Лидеры отрасли считают, что новые системы искусственного интеллекта могут быть столь же важными, как и внедрение веб-браузера в начале 1990-х годов, и могут привести к прорывам в различных областях, от исследований лекарств до образования. Но многих также терзают сомнения и страх, что они создали что-то опасное. Сегодня искусственный интеллект уже становится инструментом дезинформации. Вскоре он может начать оказывать непредсказуемое влияние на рынок труда, а в будущем — угрожать всему человечеству.
Тревожные письма
После того как стартап OpenAI выпустил в марте новую версию ChatGPT, более тысячи технологических лидеров и исследователей подписали открытое письмо, призывающее к шестимесячному мораторию на разработку новых систем. Несколько дней спустя 19 нынешних и бывших руководителей Ассоциации содействия развитию искусственного интеллекта, 40-летнего академического общества, опубликовали собственное письмо, предупреждающее о рисках искусственного интеллекта. В эту группу входил Эрик Хорвиц, главный научный сотрудник Microsoft, которая развернула технологию OpenAI в широком спектре продуктов, включая поисковую систему Bing.
Доктор Хинтон не подписал ни одно из этих писем и сказал, что не хочет публично критиковать Google или другие компании, пока не уйдет с работы. Но теперь он прервал молчание.
Опасения Хинтона
До прошлого года, по словам Хинтона, Google выступал в качестве «надлежащего распорядителя» технологии, стараясь не выпускать что-то, что может причинить вред. «Но теперь технологические гиганты оказались вовлеченными в соревнование, которое невозможно остановить», — сказал доктор Хинтон. Он обеспокоен тем, что будущие версии технологии представляют угрозу для человечества, потому что они часто учатся неожиданному поведению на основе огромных объемов данных, которые они анализируют. По его словам, это становится проблемой, поскольку частные лица и компании позволяют системам искусственного интеллекта не только генерировать свой собственный компьютерный код, но и фактически запускать этот код самостоятельно. И он боится того дня, когда по-настоящему автономное оружие — роботы-убийцы — станет реальностью.