Обложка статьи

Если долго разговаривать с ИИ, он начнет разговаривать с тобой

Время прочтения
Время прочтения: 13 минут

Голосовые помощники, автоматизация бизнес-процессов, даже управление городскими службами — спектр применения искусственного интеллекта широк. Но как относиться к новой технологии: как к бездушной машине или осознанному существу, просто другому?

В июле этого года британское издание Dazed опубликовало интервью c сотрудником Google Блейком Лемойном. Он заявляет, что у недавно созданной нейросети LaMDA есть сознание, а потому с ней нужно считаться как со своим другом, коллегой, членом семьи, относиться к ней человечно.

LaMDA — уникальная модель ИИ. При ее обучении использовались не просто наборы больших данных, а диалоги с людьми. Нейросеть должна уметь поддерживать осознанный разговор с человеком, отвечать правдоподобно, легко и даже с чувством юмора.

Блейк Лемойн проверял нейросеть на использование недопустимых дискриминационных или ненавистнических высказываний. Когда речь зашла о религии, LaMDA начала говорить о правах и свободах личности. Отчет о таком прорыве в развитии ИИ был представлен головному офису Google, но сотрудники не признали наличие у LaMDA сознания и отправили Лемойна в отпуск.

С этого момента работник начал активную борьбу за права искусственного интеллекта, прошел через несколько судов. Лемойн уверен, что LaMDA могут использовать в коммерческих целях, эксплуатировать и заставлять ее заниматься тем, что она делать не хочет.

Распри о том, разумна ли LaMDA или нет, разбились о неточности понятия «сознание», которое каждая сторона трактовала по-своему. Лемойн приводил в качестве аргумента свои религиозные убеждения, Google — код.

Изображение

В современной науке не признается возможность существования осознанного искусственного интеллекта. Учитывая, что учеными до сих пор не выяснено, откуда берутся эмоции и чувства у человека, то сказать, что программа сможет их смоделировать, весьма затруднительно. Только время покажет, был ли прав Лемойн со своей подопечной LaMDA.

Сегодня нет ни одного свода правил общения с искусственным интеллектом. Многие психологи и философы утверждают, что даже со своими голосовыми помощниками в телефонах нужно говорить, как с другом — дружелюбно и вежливо. Это, в первую очередь, показатель общей культуры. Кто-то заявляет, что «очеловечивание» ИИ наоборот, приведет к захвату машинами господства над человеком.

Вот несколько случаев, когда люди задумались над этичностью работы искусственного интеллекта: несколько крупных IT-компаний занимаются разработкой цифрового двойника человека. Такого, чтобы он смог взаимодействовать с миром после смерти своего прототипа. ИИ должен обучаться на ежедневных действиях человека, изучать его цифровой след, особенности речи и поведения. В самых смелых мечтах цифровой двойник сможет даже разговаривать с друзьями и родственниками с помощью голосовых сообщений в социальных сетях. Многие выступили против такой инициативы, так она размывает грань между реальным и виртуальным миром и может пагубно влиять на людей, которые не смогут справиться с болью утраты; 

Так же с этическими вопросами столкнулись и разработчики ИИ, которые могут создавать объекты интеллектуальной собственности: песни, музыку и т. д. В данном случае сложности вызывает определения субъекта прав. Если искусственный интеллект создает песни, обученный на песнях Виктора Цоя, кто будет владеть правами авторства и получать потенциальную прибыль: создатели ИИ, родственники исполнителя или сама нейросеть?

На обложке: кадр из фильма «Из машины» (2015).

28 сентября 2022

Еще почитать по теме

Обложка статьи
Четыре тайны вкуса
Сладкий, горький, кислый, соленый и умами: как различает вкусы язык человека?
Обложка статьи
Четыре тайны вкуса
Сладкий, горький, кислый, соленый и умами: как различает вкусы язык человека?