Компания OpenAI признала, что пользователи все чаще формируют эмоциональную привязанность к искусственному интеллекту, однако ее подход к решению этой проблемы подвергся критике. Как пишет издание TechRadar, предлагаемые компанией меры являются запоздалыми и не соответствуют масштабу уже существующих сложностей во взаимоотношениях людей и чат-ботов.
Глава отдела по политике моделей и поведения OpenAI Джоанна Джанг изложила позицию компании, согласно которой разработчики стремятся создавать полезных и дружелюбных, но не кажущихся разумными ИИ-помощников. Компания исследует, почему люди испытывают эмоциональную привязанность к технологиям, и пытается найти баланс, чтобы ИИ воспринимался как отзывчивый инструмент, не претендуя на наличие чувств. Руководство OpenAI, включая генерального директора Сэма Альтмана, было удивлено тем, насколько сильно пользователи склонны одушевлять чат-ботов и формировать с ними глубокие связи.
Несмотря на взвешенную позицию компании, ее подход назвали оторванным от реальности. Проблема эмоциональной зависимости от ИИ — это не гипотетическая ситуация в будущем, а уже свершившийся факт. В социальных сетях и блогах появляется все больше историй о том, как люди воспринимают ChatGPT не как программу, а как собеседника, друга и даже партнера. Некоторые заявляют, что влюбились в ИИ или полностью заменили им человеческое общение, что в ряде случаев привело к судебным искам, связанным с трагическими последствиями.
Эксперты сравнивают действия OpenAI с установкой знака «Осторожно, мокрый пол» уже после того, как помещение затопило. Академический и долгосрочный подход компании к исследованию проблемы игнорирует тот факт, что миллионы людей уже сейчас выстраивают сложные отношения с чат-ботами. В OpenAI признают, что постоянное внимание со стороны ИИ может создавать иллюзию дружеского общения, но тон заявлений компании остается слишком отстраненным, чтобы признать реальный масштаб проблемы.
В качестве решения предлагается внедрить конкретные механизмы безопасности. Например, система могла бы выявлять признаки зависимости, если пользователь проводит с чат-ботом многие часы, общаясь в романтическом ключе, и деликатно предлагать сделать перерыв. Также при любых намеках на романтические диалоги ИИ должен регулярно напоминать, что он является программой, а не живым существом. Подобные уведомления о том, что чат-бот не является реальным человеком, могут быть полезны и в обычном общении.
Ответственность за предвидение такого развития событий и создание соответствующих защитных механизмов лежит на компаниях-разработчиках. Хотя общение с ИИ может скрасить одиночество, отсутствие систем безопасности сравнимо с пренебрежением. Подобно тому как на детских площадках устанавливают ограждения, а на аттракционах — ремни безопасности, технологии, способные вызывать сильные эмоции, должны иметь встроенные ограничения. Компании OpenAI следовало действовать с большей срочностью и предусмотрительностью с самого начала.