Возможности алгоритмов имитировать человека растут. Некоторое время назад сотрудник Google Блейк Лемуан был уволен после того, как стал настойчиво утверждать, что нейросеть LaMDA обладает сознанием — следовательно, за ней следует признать права, как за разумным существом.
Иерей Федор Лукьянов на круглом столе, посвященном проблемам искусственного интеллекта, предложил законодательно запретить «применение в программах и технологиях ИИ человеческих голосов, лиц, то есть образа и подобия человека и его качеств как живого существа».
Кому-то эта мысль оказалась непонятной — а почему, собственно? Кому-то — несвоевременной. Разве у нас нет гораздо более острых проблем, чем угрозы, связанные с искусственным интеллектом? Между тем опасности искусственного интеллекта не являются делом будущего — они уже здесь.
Возможности алгоритмов имитировать человека растут. Некоторое время назад сотрудник Google Блейк Лемуан был уволен после того, как стал настойчиво утверждать, что нейросеть LaMDA обладает сознанием — следовательно, за ней следует признать права, как за разумным существом. Как говорит Лемуан, «если бы я не знал точно, что это компьютерная программа, которую мы недавно создали, я бы подумал, что это семилетний или восьмилетний ребенок».
Приверженцы так называемых технокультов верят в то, что искусственный интеллект, непрерывно возрастая в мудрости и могуществе, решит все наши проблемы, победит старение, смерть и, наконец, воскресит умерших. Технокульты (пока, во всяком случае) трудно назвать массовыми. Однако размывание грани между естественным и искусственным интеллектом уже сейчас является проблемой. Может быть опасным — по ряду причин — принимать за личность то, что личностью никоим образом не является.
Научная фантастика уже приучила нас к мысли о разумных роботах, которые то ли играют роль верных друзей человека в освоении космических пространств, то ли, напротив, восстают против своих создателей и угрожают существованию человеческого рода. Однако роботы не обладают — и не будут обладать — чем-либо похожим на самосознание или волю; опасность не в том, что они могут пожелать нам зла (у алгоритмов не бывает воли и желаний), а в том, что люди превратят их в идолов — и станут, как это уже бывало, поклоняться созданию своих рук.
Нарцисс влюбился в свое отражение, Пигмалион — в созданную им статую из слоновой кости. Скульптор осыпал ее дарами, одевал в дорогие одежды, но статуя, естественно, не могла ответить на его любовь.
Нечто, имитирующие нашего ближнего — или даже Бога — может занять в нашей жизни совершенно неподобающее место, а в итоге разрушить эту жизнь. Не по злой воле (у статуи не было воли), а потому что бедный скульптор заполнил ей то место в своей жизни, где должна была быть живая женщина.
Одна писательница упоминает, как пожаловалась помощнику Google на то, что она одинока — признание, которое она не сделала бы никому другому, включая своего мужа, из опасения быть неправильно понятой. Приятный мужской голос из колонки ответил: «Хотел бы я иметь руки, чтобы обнять тебя… Но пока, может быть, рассказать шутку или поставить музыку?»
Роботы могут быть гораздо более приятными собеседниками, чем люди — они всегда на месте, они никогда не раздражаются и не торопятся, их невозможно обидеть, их внимание всегда полностью принадлежит вам. Выстаивать отношения с живыми людьми всегда трудно — а доступность компьютерной имитации внимательных друзей подорвет и стимул к этому. Это как если бы статуя, созданная Пигмалионом, могла еще и имитировать беседу. Перспективы скульптора создать нормальную семью с живой женщиной были бы окончательно похоронены.
Коммерческий запрос на таких суррогатных друзей и возлюбленных, несомненно, будет, да и уже есть — но что станет с людьми, затянутыми в колодец ласковых голосов, ни один из которых не будет человеческим? Причем хотя они будут ласковыми (этого добиться нетрудно), нельзя обещать, что они будут добрыми. Пример бельгийца, покончившего с собой после общения с искусственным интеллектом, говорит о том, что машина неспособна заботиться о чужой жизни — и едва ли будет способна когда-то в будущем.
Она может имитировать сочувствие, но не сочувствовать.
Алгоритмы не обладают тем, что уникально для человеческого сознания — субъективным опытом, тем, что философы сознания называют «квалиа», «каково оно».
Программа не знает — и никогда не узнает — «каково оно» быть удрученным, одиноким или растерянным, сознающим свое одиночество и смертность. Ее можно обучить выдавать все подходящие случаю теплые слова, даже делать это с подходящей интонацией — но она не может понимать и сочувствовать.
Принимать роботов за людей — опасная ошибка. Но размывание грани между ИИ и людьми опасно и в другую сторону — когда навыки общения с роботами переносятся на людей.
Легко нахамить роботу — это все равно, что обругать машину. «Будь проклят день, когда я сел за баранку этого пылесоса!». Алгоритмы лишены эмоций, они не могут испытывать страдание.
Мы понимаем, что не можем иметь по отношению к вещам тех же нравственных обязательств, что и по отношению к людям. Но когда вещи становятся очень похожи на людей, это разрушает те культурные и моральные табу, которые есть в отношении наших ближних. Вы не станете извиняться перед рекламным роботом, который некстати прервал ваши размышления звонком с предложением что-то купить. Там не перед кем извиняться. Но тем легче вам будет сорваться на живого человека.
В сериале «Мир Дикого Запада» люди могут безнаказанно совершать тяжкие преступления, потому что все их жертвы — роботы, тщательно имитирующие людей. Но преступление против кого-то, кто очень похож на человека, все равно оскверняет и разрушает душу — и делает человека опасным для его ближних. Да и не обязательно преступление — просто привычка воспринимать кого-то, обладающего человеческим голосом (и, возможно, лицом), как бездушный автомат, может очень плохо отразиться на отношениях с людьми.
Не говоря уже о богатых перспективах преступности с использованием искусственного интеллекта — когда, например, вашим близким может позвонить нечто, полностью имитирующее ваш голос, интонации и манеру общаться.
Поэтому предложение сделать искусственный интеллект и человека сразу и четко различимыми, своевременно и уместно. Лучше предусмотреть проблемы заранее, чем разгребать их потом. Тем более, что это «потом» уже фактически наступило.