В течение полувека Джеффри Хинтон развивал технологию, лежащую в основе таких чат-ботов, как ChatGPT. Теперь он опасается, что она может нанести серьезный вред.
Джеффри Хинтон был пионером в области искусственного интеллекта. В 2012 году доктор Хинтон и два его аспиранта в Университете Торонто создали технологию, которая стала интеллектуальной основой для систем искусственного интеллекта, которые крупнейшие компании технологической отрасли считают ключом к своему будущему.
В понедельник, однако, он официально присоединился к растущему хору критиков, которые говорят, что эти компании мчатся навстречу опасности со своей агрессивной кампанией по созданию продуктов на основе генеративного искусственного интеллекта, технологии, на которой работают популярные чат-боты, такие как ChatGPT.
Доктор Хинтон сказал, что он уволился из Google, где он проработал более десяти лет и стал одним из самых авторитетных специалистов в этой области, чтобы иметь возможность свободно высказываться о рисках ИИ. Часть его, по его словам, сейчас сожалеет о работе всей своей жизни.
“Я утешаю себя обычной отговоркой: если бы я этого не сделал, это сделал бы кто-то другой”, – сказал доктор Хинтон во время продолжительного интервью на прошлой неделе в столовой своего дома в Торонто, в нескольких минутах ходьбы от места, где он и его студенты совершили свой прорыв.
Путь доктора Хинтона от новатора в области ИИ до вершителя судеб знаменует собой важный момент для технологической отрасли, возможно, самый важный переломный момент за последние десятилетия. Лидеры отрасли считают, что новые системы ИИ могут стать столь же важными, как появление веб-браузера в начале 1990-х годов, и привести к прорыву в самых разных областях – от исследования лекарств до образования.
Но многих инсайдеров отрасли мучает страх, что они выпускают на волю нечто опасное. Генеративные ИИ уже могут стать инструментом для дезинформации. Вскоре это может стать угрозой для рабочих мест. А в дальнейшем, по мнению самых больших борцов с технологиями, это может стать угрозой для человечества.
“Трудно понять, как можно помешать плохим игрокам использовать его для плохих целей”, – сказал доктор Хинтон.
После того как в марте стартап OpenAI из Сан-Франциско выпустил новую версию ChatGPT, более 1000 технологических лидеров и исследователей подписали открытое письмо с призывом ввести шестимесячный мораторий на разработку новых систем, поскольку технологии искусственного интеллекта представляют “серьезный риск для общества и человечества”.
Несколько дней спустя 19 нынешних и бывших руководителей Ассоциации по развитию искусственного интеллекта (Association for the Advancement of Artificial Intelligence), академического общества с 40-летней историей, опубликовали собственное письмо, предупреждающее о рисках, связанных с ИИ. В эту группу входил Эрик Хорвиц, главный научный сотрудник компании Microsoft, которая внедрила технологию OpenAI в широкий спектр продуктов, включая поисковую систему Bing.
Доктор Хинтон, которого часто называют “крестным отцом ИИ”, не подписал ни одно из этих писем и сказал, что не хочет публично критиковать Google или другие компании, пока не уволится с работы. В прошлом месяце он уведомил компанию о своей отставке, а в четверг он разговаривал по телефону с Сундаром Пичаи, генеральным директором материнской компании Google, Alphabet. Он отказался публично обсуждать детали своего разговора с г-ном Пичаи.
Главный научный сотрудник Google Джефф Дин в своем заявлении сказал: “Мы по-прежнему привержены ответственному подходу к ИИ. Мы постоянно учимся, чтобы понять возникающие риски и одновременно смело внедряем инновации”.
Доктор Хинтон, 75-летний британский эмигрант, всю жизнь занимался наукой, чья карьера была обусловлена его личными убеждениями в отношении развития и использования ИИ. В 1972 году, будучи аспирантом Эдинбургского университета, доктор Хинтон взялся за идею под названием “нейронная сеть”. Нейронная сеть – это математическая система, которая обучается навыкам путем анализа данных. В то время мало кто из исследователей верил в эту идею. Но она стала делом всей его жизни.
В 1980-х годах доктор Хинтон был профессором информатики в Университете Карнеги-Меллон, но уехал из университета в Канаду, потому что, по его словам, он не хотел принимать финансирование от Пентагона. В то время большинство исследований в области ИИ в США финансировались Министерством обороны. Доктор Хинтон глубоко против использования искусственного интеллекта на поле боя – того, что он называет “солдатами-роботами”.
В 2012 году доктор Хинтон и двое его студентов в Торонто, Илья Суцкевер и Алекс Кришевский, создали нейронную сеть, которая могла анализировать тысячи фотографий и научить себя определять обычные объекты, такие как цветы, собаки и автомобили.
Google потратил 44 миллиона долларов на приобретение компании, созданной доктором Хинтоном и двумя его студентами. Их система привела к созданию еще более мощных технологий, включая новые чат-боты, такие как ChatGPT и Google Bard. Г-н Суцкевер стал главным ученым в OpenAI. В 2018 году доктор Хинтон и еще два его давних сотрудника получили премию Тьюринга, которую часто называют “Нобелевской премией по вычислительной технике”, за их работу над нейронными сетями.
Примерно в то же время Google, OpenAI и другие компании начали создавать нейронные сети, которые обучались на огромных объемах цифрового текста. Доктор Хинтон считал, что это мощный способ для машин понимать и генерировать язык, но он уступал тому, как человек работает с языком.
Затем, в прошлом году, когда Google и OpenAI создали системы, использующие гораздо большие объемы данных, его мнение изменилось. Он по-прежнему считал, что системы в чем-то уступают человеческому мозгу, но в чем-то они затмевают человеческий интеллект. “Возможно, то, что происходит в этих системах, – сказал он, – на самом деле намного лучше, чем то, что происходит в мозге”.
По его мнению, по мере того как компании совершенствуют свои системы ИИ, они становятся все более опасными. “Посмотрите, что было пять лет назад и что сейчас”, – сказал он о технологии ИИ. “Возьмите разницу и перенесите ее вперед. Это страшно”.
По его словам, до прошлого года Google вел себя как “надлежащий управляющий” технологией, стараясь не выпускать то, что может причинить вред. Но теперь, когда Microsoft дополнила свою поисковую систему Bing чат-ботом, это бросает вызов основному бизнесу Google, Google спешит внедрить такую же технологию. По словам доктора Хинтона, технологические гиганты вступают в соревнование, которое невозможно остановить.
Его непосредственное беспокойство вызывает то, что Интернет будет наводнен поддельными фотографиями, видео и текстами, и обычный человек “больше не сможет понять, что является правдой”.
Он также опасается, что технологии ИИ со временем перевернут рынок труда. Сегодня чат-боты, подобные ChatGPT, как правило, дополняют человеческий труд, но они могут заменить юристов, личных помощников, переводчиков и других людей, выполняющих рутинные задачи. “Это избавит нас от тяжелой работы”, – сказал он. “Возможно, это будет не только это”.
В дальнейшем он опасается, что будущие версии этой технологии могут представлять угрозу для человечества, поскольку они часто учатся неожиданному поведению на основе огромного количества данных, которые они анализируют. По его словам, это становится проблемой, когда частные лица и компании позволяют системам ИИ не только генерировать свой собственный компьютерный код, но и выполнять его самостоятельно. И он опасается того дня, когда действительно автономное оружие – эти роботы-убийцы – станут реальностью.
“Идея в том, что эта штука может стать умнее людей – несколько человек поверили в это”, – сказал он. “Но большинство людей думали, что это далеко не так. И я так думал. Мне казалось, что до этого еще 30-50 лет или даже больше. Очевидно, я больше так не думаю”.
Многие другие эксперты, включая многих его студентов и коллег, говорят, что эта угроза гипотетическая. Но доктор Хинтон считает, что гонка между Google, Microsoft и другими компаниями перерастет в глобальную гонку, которая не прекратится без какого-либо глобального регулирования.
Но это может быть невозможно, сказал он. В отличие от ядерного оружия, нет возможности узнать, работают ли компании или страны над технологией втайне. Лучшая надежда – это сотрудничество ведущих ученых мира в разработке способов контроля над технологией. “Я не думаю, что им следует расширять масштабы этой технологии, пока они не поймут, смогут ли они ее контролировать”, – сказал он.
Доктор Хинтон сказал, что когда люди спрашивали его, как он может работать над технологией, которая потенциально опасна, он перефразировал Роберта Оппенгеймера, который возглавлял усилия США по созданию атомной бомбы: “Когда вы видите что-то технически приятное, вы идете вперед и делаете это”.
Больше он так не говорит.