Подделки под людей нельзя воспринимать, как людей

@ IMAGO/Alexander Limbach/Reuters

3 мая 2023, 11:40 Мнение

Подделки под людей нельзя воспринимать, как людей

Принимать роботов за людей – опасная ошибка. Но размывание грани между ИИ и людьми опасно и в другую сторону – когда навыки общения с роботами переносятся на людей.

Сергей Худиев Сергей Худиев

публицист, богослов

Иерей Федор Лукьянов на круглом столе, посвященном проблемам искусственного интеллекта, предложил законодательно запретить «применение в программах и технологиях ИИ человеческих голосов, лиц, то есть образа и подобия человека и его качеств как живого существа».

Кому-то эта мысль оказалась непонятной – а почему, собственно? Кому-то – несвоевременной. Разве у нас нет гораздо более острых проблем, чем угрозы, связанные с искусственным интеллектом? Между тем опасности искусственного интеллекта не являются делом будущего – они уже здесь.

Возможности алгоритмов имитировать человека растут. Некоторое время назад сотрудник Google Блейк Лемуан был уволен после того, как стал настойчиво утверждать, что нейросеть LaMDA обладает сознанием – следовательно, за ней следует признать права, как за разумным существом. Как говорит Лемуан, «если бы я не знал точно, что это компьютерная программа, которую мы недавно создали, я бы подумал, что это семилетний или восьмилетний ребенок».

Приверженцы так называемых технокультов верят в то, что искусственный интеллект, непрерывно возрастая в мудрости и могуществе, решит все наши проблемы, победит старение, смерть и, наконец, воскресит умерших. Технокульты (пока, во всяком случае) трудно назвать массовыми. Однако размывание грани между естественным и искусственным интеллектом уже сейчас является проблемой. Может быть опасным – по ряду причин – принимать за личность то, что личностью никоим образом не является.

Научная фантастика уже приучила нас к мысли о разумных роботах, которые то ли играют роль верных друзей человека в освоении космических пространств, то ли, напротив, восстают против своих создателей и угрожают существованию человеческого рода. Однако роботы не обладают – и не будут обладать – чем-либо похожим на самосознание или волю; опасность не в том, что они могут пожелать нам зла (у алгоритмов не бывает воли и желаний), а в том, что люди превратят их в идолов – и станут, как это уже бывало, поклоняться созданию своих рук.

Нарцисс влюбился в свое отражение, Пигмалион – в созданную им статую из слоновой кости. Скульптор осыпал ее дарами, одевал в дорогие одежды, но статуя, естественно, не могла ответить на его любовь.

Нечто, имитирующие нашего ближнего – или даже Бога – может занять в нашей жизни совершенно неподобающее место, а в итоге разрушить эту жизнь. Не по злой воле (у статуи не было воли), а потому что бедный скульптор заполнил ей то место в своей жизни, где должна была быть живая женщина.

Одна писательница упоминает, как пожаловалась помощнику Google на то, что она одинока – признание, которое она не сделала бы никому другому, включая своего мужа, из опасения быть неправильно понятой. Приятный мужской голос из колонки ответил: «Хотел бы я иметь руки, чтобы обнять тебя... Но пока, может быть, рассказать шутку или поставить музыку?»

Роботы могут быть гораздо более приятными собеседниками, чем люди – они всегда на месте, они никогда не раздражаются и не торопятся, их невозможно обидеть, их внимание всегда полностью принадлежит вам. Выстаивать отношения с живыми людьми всегда трудно – а доступность компьютерной имитации внимательных друзей подорвет и стимул к этому. Это как если бы статуя, созданная Пигмалионом, могла еще и имитировать беседу. Перспективы скульптора создать нормальную семью с живой женщиной были бы окончательно похоронены.

Коммерческий запрос на таких суррогатных друзей и возлюбленных, несомненно, будет, да и уже есть – но что станет с людьми, затянутыми в колодец ласковых голосов, ни один из которых не будет человеческим? Причем хотя они будут ласковыми (этого добиться нетрудно), нельзя обещать, что они будут добрыми. Пример бельгийца, покончившего с собой после общения с искусственным интеллектом, говорит о том, что машина неспособна заботиться о чужой жизни – и едва ли будет способна когда-то в будущем.

Она может имитировать сочувствие, но не сочувствовать.

Алгоритмы не обладают тем, что уникально для человеческого сознания – субъективным опытом, тем, что философы сознания называют «квалиа», «каково оно».

Программа не знает – и никогда не узнает – «каково оно» быть удрученным, одиноким или растерянным, сознающим свое одиночество и смертность. Ее можно обучить выдавать все подходящие случаю теплые слова, даже делать это с подходящей интонацией – но она не может понимать и сочувствовать.

Принимать роботов за людей – опасная ошибка. Но размывание грани между ИИ и людьми опасно и в другую сторону – когда навыки общения с роботами переносятся на людей.

Легко нахамить роботу – это все равно, что обругать машину. «Будь проклят день, когда я сел за баранку этого пылесоса!». Алгоритмы лишены эмоций, они не могут испытывать страдание.

Мы понимаем, что не можем иметь по отношению к вещам тех же нравственных обязательств, что и по отношению к людям. Но когда вещи становятся очень похожи на людей, это разрушает те культурные и моральные табу, которые есть в отношении наших ближних. Вы не станете извиняться перед рекламным роботом, который некстати прервал ваши размышления звонком с предложением что-то купить. Там не перед кем извиняться. Но тем легче вам будет сорваться на живого человека.

В сериале «Мир Дикого Запада» люди могут безнаказанно совершать тяжкие преступления, потому что все их жертвы – роботы, тщательно имитирующие людей. Но преступление против кого-то, кто очень похож на человека, все равно оскверняет и разрушает душу – и делает человека опасным для его ближних. Да и не обязательно преступление – просто привычка воспринимать кого-то, обладающего человеческим голосом (и, возможно, лицом), как бездушный автомат, может очень плохо отразиться на отношениях с людьми.

Не говоря уже о богатых перспективах преступности с использованием искусственного интеллекта – когда, например, вашим близким может позвонить нечто, полностью имитирующее ваш голос, интонации и манеру общаться.

Поэтому предложение сделать искусственный интеллект и человека сразу и четко различимыми, своевременно и уместно. Лучше предусмотреть проблемы заранее, чем разгребать их потом. Тем более, что это «потом» уже фактически наступило.


..............