Дмитрий Ветров: «Никакого восстания машин не будет, человечество пойдет за ними добровольно»

Дмитрий Ветров, фото: Высшая школа экономики
Дмитрий Ветров, фото: Высшая школа экономики

Утрата человеком критического мышления и манипуляции со стороны ИИ — риски, о которых говорит все научное и экспертное сообщество. Сейчас активно обсуждается необходимость протокола безопасности при работе с моделями искусственного интеллекта. Какими могут быть меры контроля возможностей ИИ? Становятся ли роботы умнее человека и нужно ли их ограничивать, на конференции ВШЭ «Искусственный интеллект и общество» рассказал профессор-исследователь департамента больших данных и информационного поиска, руководитель Центра глубинного обучения и байесовских методов НИУ ВШЭ Дмитрий Ветров.

Современные технологии искусственного интеллекта можно рассматривать как пятую промышленную революцию, полагает Дмитрий Ветров: «Мы стоим на пороге очередной технологической революции, связанной с распространением и внедрением технологий искусственного интеллекта, которые поделят нашу жизнь на до и после». Свой доклад он назвал «На пути к сильному ИИ: проблемы, ограничения, риски».

Профессор напомнил слушателям условные вехи развития моделей ИИ — от начала развития классических моделей машинного обучения в 1950 году до появления ChatGPT в 2022 году. При этом и сейчас никто не представляет, что именно происходит в процессе обучения нейросетей.

МЫ РЕШАЕМ ЗАДАЧИ ОПТИМИЗАЦИИ ФУНКЦИЙ В МИЛЛИАРДОМЕРНЫХ ПРОСТРАНСТВАХ, СЛАБО ПРЕДСТАВЛЯЯ СЕБЕ СВОЙСТВА ОПТИМИЗИРУЕМОЙ ФУНКЦИИ

Профессор пояснил, что слишком сложная и гибкая модель способна запомнить ограниченный набор обучающих данных, не выучивая при этом содержащиеся в нем закономерности. Классическая рекомендация заключается в том, чтобы использовать как можно меньше степеней свободы для правильного описания обучающих данных (бритва Оккама). Однако после прохождения критического уровня сложности по каким-то причинам обобщающая способность модели снова начинает улучшаться. Графически это выглядит как двойной спуск. При этом даже после достижения нулевой ошибки на обучении в нейросети могут происходить сложные процессы консолидации, вызывающие непонятные программистам эффекты.

Уже сейчас существуют модели ИИ, способные оперировать языком на уровне человека и зачастую неотличимые от него. Модель ChatGPT произвела в обществе эффект разорвавшейся бомбы, напомнил Дмитрий Ветров. Большие языковые модели (БЯМ) дают человечеству неограниченные возможности: автоматизация ряда рутинных когнитивных задач, революционный информационный поиск, агрегация коллективных знаний человечества. Кроме того, эта технология позволяет использовать в исследованиях ИИ не только математические и инженерные подходы.

При этом БЯМ имеет ряд ограничений, о которых уже сейчас многие забывают: например, неспособность к эмпатии и отсутствие целеполагания.

Профессор обрисовал возможные риски, создаваемые БЯМ. Так, по его мнению, на рынке труда на горизонте нескольких лет произойдут драматические изменения, связанные с возможностями ИИ автоматизировать рутинные задачи: окажется не у дел армия работников, которые сейчас занимаются таким трудом. 

Еще одна опасность заключается в том, что повсеместное проникновение такого рода технологий может привести к утрате значительной частью населения навыков критического мышления. Дмитрий Ветров рассказал, что при общении с ChatGPT у него возникла мысль о том, чтобы поставить перед ИИ задачу читать научные статьи и выдавать краткую выжимку на русском языке и таким образом сэкономить собственное время и усилия.

«Если у меня, у профессора, возникла такая мысль, то о чем может подумать школьник, у которого будет доступ к такой системе? А если постоянно использовать систему типа ChatGPT, мозги могут атрофироваться очень быстро», — полагает Дмитрий Ветров.

ЧЕРЕЗ НЕСКОЛЬКО ЛЕТ МЫ ПРИВЫКНЕМ ДОВЕРЯТЬ СИСТЕМАМ, И СОМНЕНИЯ В ПОДЛИННОСТИ ИХ ВЫВОДОВ ВОЗНИКАТЬ НЕ БУДУТ — МЫ ПОЛНОСТЬЮ УТРАТИМ НАВЫКИ КРИТИЧЕСКОГО ВОСПРИЯТИЯ, КОТОРЫЕ И СЕЙЧАС УЖЕ НЕ СЛИШКОМ ВЕЛИКИ. ТО ЕСТЬ СИСТЕМА БУДЕТ ДУМАТЬ ЗА ЧЕЛОВЕКА

Кроме того, профессор опасается, что взрывной рост интеллектуальной мощности БЯМ даст им возможность манипулировать людьми.

«Это технология масштабирования: сегодня у нее [машины] интеллект как у человека, а уже завтра будет сильно выше. Опасность заключается в том, что, когда один из собеседников интеллектуально намного превосходит другого, открываются широкие возможности для манипулирования. Как бы не оказалось так, что мы упустим этот момент. То есть не будет никакого восстания машин, человечество пойдет за ними добровольно», — предрекает Дмитрий Ветров.

Он предложил несколько вариантов создания безопасного ИИ: искусственное ограничение размера модели и/или зашумление полезного сигнала, взаимный контроль одних моделей ИИ над другими моделями ИИ и планетарное ограничение технологической гонки ИИ. Впрочем, все они не были оценены слушателями: ученые оказались не склонны ограничивать прогресс.

Дата публикации: 03.07.2023

Автор: Марина Полякова

Будь всегда в курсе !
Подпишись на наши новости: