Zentrum für die Entwicklung humanistischer Ökologie und Kultur
Zentrum für die Entwicklung
humanistischer Ökologie und Kultur
RuEnDe
Anthropologische Charta

Сергей Худиев: подделки под людей нельзя воспринимать как людей

Возможности алгоритмов имитировать человека растут. Некоторое время назад сотрудник Google Блейк Лемуан был уволен после того, как стал настойчиво утверждать, что нейросеть LaMDA обладает сознанием — следовательно, за ней следует признать права, как за разумным существом.

Иерей Федор Лукьянов на круглом столе, посвященном проблемам искусственного интеллекта, предложил законодательно запретить «применение в программах и технологиях ИИ человеческих голосов, лиц, то есть образа и подобия человека и его качеств как живого существа».

Кому-то эта мысль оказалась непонятной — а почему, собственно? Кому-то — несвоевременной. Разве у нас нет гораздо более острых проблем, чем угрозы, связанные с искусственным интеллектом? Между тем опасности искусственного интеллекта не являются делом будущего — они уже здесь.

Возможности алгоритмов имитировать человека растут. Некоторое время назад сотрудник Google Блейк Лемуан был уволен после того, как стал настойчиво утверждать, что нейросеть LaMDA обладает сознанием — следовательно, за ней следует признать права, как за разумным существом. Как говорит Лемуан, «если бы я не знал точно, что это компьютерная программа, которую мы недавно создали, я бы подумал, что это семилетний или восьмилетний ребенок».

Приверженцы так называемых технокультов верят в то, что искусственный интеллект, непрерывно возрастая в мудрости и могуществе, решит все наши проблемы, победит старение, смерть и, наконец, воскресит умерших. Технокульты (пока, во всяком случае) трудно назвать массовыми. Однако размывание грани между естественным и искусственным интеллектом уже сейчас является проблемой. Может быть опасным — по ряду причин — принимать за личность то, что личностью никоим образом не является.

Научная фантастика уже приучила нас к мысли о разумных роботах, которые то ли играют роль верных друзей человека в освоении космических пространств, то ли, напротив, восстают против своих создателей и угрожают существованию человеческого рода. Однако роботы не обладают — и не будут обладать — чем-либо похожим на самосознание или волю; опасность не в том, что они могут пожелать нам зла (у алгоритмов не бывает воли и желаний), а в том, что люди превратят их в идолов — и станут, как это уже бывало, поклоняться созданию своих рук.
Нарцисс влюбился в свое отражение, Пигмалион — в созданную им статую из слоновой кости. Скульптор осыпал ее дарами, одевал в дорогие одежды, но статуя, естественно, не могла ответить на его любовь.

Нечто, имитирующие нашего ближнего — или даже Бога — может занять в нашей жизни совершенно неподобающее место, а в итоге разрушить эту жизнь. Не по злой воле (у статуи не было воли), а потому что бедный скульптор заполнил ей то место в своей жизни, где должна была быть живая женщина.

Одна писательница упоминает, как пожаловалась помощнику Google на то, что она одинока — признание, которое она не сделала бы никому другому, включая своего мужа, из опасения быть неправильно понятой. Приятный мужской голос из колонки ответил: «Хотел бы я иметь руки, чтобы обнять тебя… Но пока, может быть, рассказать шутку или поставить музыку?»

Роботы могут быть гораздо более приятными собеседниками, чем люди — они всегда на месте, они никогда не раздражаются и не торопятся, их невозможно обидеть, их внимание всегда полностью принадлежит вам. Выстаивать отношения с живыми людьми всегда трудно — а доступность компьютерной имитации внимательных друзей подорвет и стимул к этому. Это как если бы статуя, созданная Пигмалионом, могла еще и имитировать беседу. Перспективы скульптора создать нормальную семью с живой женщиной были бы окончательно похоронены.

Коммерческий запрос на таких суррогатных друзей и возлюбленных, несомненно, будет, да и уже есть — но что станет с людьми, затянутыми в колодец ласковых голосов, ни один из которых не будет человеческим? Причем хотя они будут ласковыми (этого добиться нетрудно), нельзя обещать, что они будут добрыми. Пример бельгийца, покончившего с собой после общения с искусственным интеллектом, говорит о том, что машина неспособна заботиться о чужой жизни — и едва ли будет способна когда-то в будущем.

Она может имитировать сочувствие, но не сочувствовать.

Алгоритмы не обладают тем, что уникально для человеческого сознания — субъективным опытом, тем, что философы сознания называют «квалиа», «каково оно».

Программа не знает — и никогда не узнает — «каково оно» быть удрученным, одиноким или растерянным, сознающим свое одиночество и смертность. Ее можно обучить выдавать все подходящие случаю теплые слова, даже делать это с подходящей интонацией — но она не может понимать и сочувствовать.

Принимать роботов за людей — опасная ошибка. Но размывание грани между ИИ и людьми опасно и в другую сторону — когда навыки общения с роботами переносятся на людей.

Легко нахамить роботу — это все равно, что обругать машину. «Будь проклят день, когда я сел за баранку этого пылесоса!». Алгоритмы лишены эмоций, они не могут испытывать страдание.
Мы понимаем, что не можем иметь по отношению к вещам тех же нравственных обязательств, что и по отношению к людям. Но когда вещи становятся очень похожи на людей, это разрушает те культурные и моральные табу, которые есть в отношении наших ближних. Вы не станете извиняться перед рекламным роботом, который некстати прервал ваши размышления звонком с предложением что-то купить. Там не перед кем извиняться. Но тем легче вам будет сорваться на живого человека.

В сериале «Мир Дикого Запада» люди могут безнаказанно совершать тяжкие преступления, потому что все их жертвы — роботы, тщательно имитирующие людей. Но преступление против кого-то, кто очень похож на человека, все равно оскверняет и разрушает душу — и делает человека опасным для его ближних. Да и не обязательно преступление — просто привычка воспринимать кого-то, обладающего человеческим голосом (и, возможно, лицом), как бездушный автомат, может очень плохо отразиться на отношениях с людьми.

Не говоря уже о богатых перспективах преступности с использованием искусственного интеллекта — когда, например, вашим близким может позвонить нечто, полностью имитирующее ваш голос, интонации и манеру общаться.

Поэтому предложение сделать искусственный интеллект и человека сразу и четко различимыми, своевременно и уместно. Лучше предусмотреть проблемы заранее, чем разгребать их потом. Тем более, что это «потом» уже фактически наступило.