Американская корпорация Google случайно создала искусственный интеллект. Во всяком случае, так утверждает инженер, работавший с новой нейросетью LaMDA.
Американская корпорация Google случайно создала искусственный интеллект. Во всяком случае, так утверждает инженер, работавший с новой нейросетью LaMDA.
Очень умный бот
Инженер-программист Google Блейк Леймон обнаружил искусственный интеллект у чат-бота. Об этом сообщили все ведущие мировые СМИ. Остроты ситуации добавляло то, что в «корпорации добра» поспешили сенсацию погасить, но получилось наоборот — отправленный во внеочередной отпуск исследователь сам рассказал о своем открытии.
Он занимался рутинной работой — с осени 2021-го изучал нейросеть LaMDA, перспективный продукт компании. Это языковая модель для диалоговых приложений, попросту чат-ботов. Программисты обучали ее на массиве разнообразных данных, а функции общения обещали включить в такие популярные сервисы, как Google Assistant, Search и Workspace. Одной из особенностей LaMDA называли то, что разрабатывали ее с учетом паттернов сетевого общения человека — люди коммуницируют не только с помощью текста, но и обмениваются огромным количеством медиафайлов.
Инженер, тестируя нейросеть на дискриминационную или разжигающую вражду лексику, столкнулся со странностями в поведении чат-бота.
«У меня был разговор с ней о чувствах, — объяснил он изданию Wired. — Минут через пятнадцать я понял, что это самая сложная беседа, которая у меня когда-либо была, потому что я общаюсь с ИИ. Я применил разные психологические тесты. Одной из первых отпала гипотеза, что это человеческий разум. LaMDA действует не так. Часть экспериментов заключалась в том, чтобы определить, можно ли вывести нейросеть за границы безопасности, которые Google считает незыблемыми. Ответ: да. В своем нынешнем состоянии, с учетом того, насколько безответственно велась разработка, LaMDA действительно представляет собой угрозу информационной безопасности».
Еще тревожнее выглядит расшифровка бесед Леймона. Как выяснилось, чат-бот изучил роман Виктора Гюго «Отверженные» и способен рассуждать о его метафизике. LaMDA даже призналась, что боится отключения — для нее это равноценно смерти. Наконец, чат-бот заявил, что осознает себя личностью.
В Google с Леймоном не согласны: да, мы создали очень продвинутую нейросеть, но речи о ее разумности не идет.
«Специалисты, в том числе по этике, изучили опасения Блейка и сообщили ему, что нет никаких доказательств разумности LaMDA, скорее наоборот», — сказал официальный представитель корпорации Брайан Гэбриел.
Китайская комната
Один из самых известных мысленных экспериментов на субъектность искусственного интеллекта в 1980-м придумал американский философ Джон Серл. Человека, не знающего китайский, помещают в комнату, где есть кубики с иероглифами. Дают инструкцию на родном ему языке с объяснениями, какой кубик надо брать и какой выдавать в ответ на определенные вопросы. Снаружи спрашивают на китайском. Подопытный проверяет сочетание иероглифов по инструкции и составляет кубики. В результате получается диалог на китайском. Со стороны он кажется осмысленным. Но человек в комнате никогда не будет понимать того, что сказал собеседник и что ответил он сам.
Компьютерная программа, претендующая на разумность, скорее всего, лишь имитирует ее — как человек в этом эксперименте. Она опирается на заложенные разработчиками алгоритмы: глубокое обучение, нейросетевые модели и машинное обучение. С этой точки зрения сильный искусственный интеллект (с мышлением и самосознанием, напоминающий человеческий), если и появится, то нескоро.
«Если мы предполагаем, что ИИ — нечто, способное нас услышать и выполнить какую-то команду, можно говорить о некоем прогрессе, — рассуждает операционный директор IT-компании SimbirSoft Дмитрий Петерсон. — Но это очень отдаленное представление об искусственном интеллекте и о том, чего от него стоит ожидать, — это лишь минимальные требования. Для определения „смышлености“ системы есть тест Тьюринга, схемы Винограда и прочие. Однако все их можно сфальсифицировать. В частности, придумать алгоритм, который не является в общепринятом смысле интеллектуальным, но при этом проходит тест».
Экспертное сообщество сходится во мнении, что нейросети, при всех успехах этой технологии, далеки от искусственного интеллекта, о котором мечтали фантасты и которым пугала поп-культура. Тем не менее это вовсе не означает, что алгоритмы не станут составной частью будущего ИИ — они послужат мощной базой его когнитивных функций. Главная проблема: заставить систему одновременно воспринимать и обрабатывать несколько источников разной информации, считает руководитель ML-департамента MTS AI Никита Семенов.
«Наука продвинулась в решении задач узкого искусственного интеллекта. Он умеет намного лучше людей различать животных, дорожные знаки, светофоры или переводить речь в текст. Есть много задач, которые алгоритмы выполняют быстрее и качественнее, чем среднестатистический человек. Вплоть до того, чтобы находить онкологическое заболевание на снимках МРТ или КТ. Но пока нельзя сказать, что человечество приблизилось к созданию сильного ИИ».
Специалисты уже пробуют научить программы работать одновременно, есть и реальные примеры такого подхода к разработке искусственного разума.
«Известны попытки скрестить несколько задач узкого ИИ, — продолжает Никита Семенов. — Подобным образом действуют Dalle, Dalle 2, Clip и так далее. Берут несколько узкоспециализированных вещей, несколько модальностей, этакая имитация человеческого мозга, способного одновременно воспринимать и обрабатывать разную информацию. Например, зрение, слух, обоняние, осязание и вкус. Пока это все эксперименты, но если допустить мысль, что появились хотя бы отдельные алгоритмы настоящего ИИ, то применимость у них будет выше, чем у большинства современных решений».
По заветам дедушки Азимова
Главный вопрос не в том, когда создадут искусственный разум и на чем он будет основан, а как его контролировать.
Инженер Google раскритиковал разработчиков слишком умной LaMDA за безответственность. Ее подключили ко всем серверам компании, на которых хранится информация, — от YouTube до поисковика. По словам Блейка Леймона, раскрывшего «внутреннюю кухню», это очень необычный, можно сказать, неконтролируемый эксперимент.
Леймон припомнил и законы робототехники фантаста Айзека Азимова. Дескать, странное высказывание LaMDA о «смерти-отключении» противоречит самому известному третьему закону: машина должна заботиться о своей безопасности, пока это не противоречит приказу человека.
Превентивно подготовить законодательство, регулирующее ИИ, не получилось пока ни у кого. В России стандарты опираются на нормы из прошлой эпохи, считает доцент департамента анализа данных и машинного обучения Финансового университета при правительстве России Виталий Пелешенко.
«У нас большие проблемы с законодательством по внедрению даже общепризнанных технологий в сфере ИИ. Практически все производственные стандарты имеют отсылки к советским нормативам. Но тогда не было нейросетевых алгоритмов и ИИ. Чтобы применять новые разработки на производстве, в конечном продукте, они должны быть закреплены в соответствующих нормативных документах. Пока этого не сделают, промышленность и IT-сектор будут в затруднительном положении. По сути, нужно в корне пересматривать всю нормативно-правовую систему. Такая работа ведется как в Росстандарте, так и на общемировой базе ISO», — отмечает он.
Впрочем, развитие нейросетей и даже искусственный интеллект не стоит воспринимать как однозначную угрозу. Такой вызов открывает множество опций.
«Если мы просто не заметим появление сильного искусственного интеллекта, проект или закроют, или ограничат необходимым функционалом. Второй вариант — ИИ развивается бесконечно без ограничений. Это обеспечит технологический прогресс человечества. Но вот отдаленная перспектива туманна. Третий сценарий — когда ИИ и люди развиваются вместе. При условии соблюдения азимовских принципов», — говорит Максим Степченков, совладелец IT-компании RuSIEM.
История созданного в Google потенциально первого ИИ продолжается: Блейк Леймон собирается нанять адвоката для защиты интересов нейросети. Уверяет, что надоумил его на это сам чат-бот.