
В нескольких словах
Эксперт по цифровой этике Алексей Гринбаум предупреждает, что искусственный интеллект создает опасную "иллюзию сознания". Он утверждает, что способность чат-ботов имитировать человеческие эмоции делает пользователей уязвимыми для манипуляций, и призывает регулировать механизмы взаимодействия, а не контент, чтобы сохранить автономию человека.
Какие красные линии не следует пересекать, вступая в диалог с искусственным интеллектом (ИИ)? Чат-боты, способные имитировать человеческие интонации, шутить, провоцировать и даже лгать, все больше проникают в нашу жизнь и становятся неотличимыми от настоящих людей. Это делает их чем-то большим, чем просто виртуальными ассистентами: убаюканные иллюзией понимания и возможностью разделить \"чувственный\" момент с неким \"существом\", некоторые пользователи без колебаний вступают в брак со своими аватарами или замыкаются в общении с ними, убежденные, что только машины способны их понять.
Это явление далеко не единично, утверждает Алексей Гринбаум, директор по исследованиям в области философии науки и председатель комитета по цифровой этике в Комиссариате по атомной энергии Франции (CEA). Изучая научную литературу, этот ученый, автор нашумевшего эссе \"Слово машин\", пришел к убеждению: новые способы взаимодействия с роботами создают бреши в нашей способности им противостоять.
Одного примера достаточно, чтобы это осознать: с помощью ласковых слов и фальшивых перепадов настроения ИИ теперь овладел искусством соблазнения. Вместо того чтобы просто читать текст, они заставляют нас смеяться, трогают нас — это гораздо более мощные рычаги воздействия на нашу психику, особенно если мы одиноки или находимся в уязвимом положении. По мнению ученого, это дает роботам влияние, значительно превосходящее социальные сети и циркулирующие в них фейковые утверждения и изображения.
Чтобы защититься от пагубных последствий такой революции и предотвратить дальнейшее разрушение наших отношений с другими людьми и с истиной, эксперт призывает к регулированию наших взаимодействий с этими сервисами, не прибегая к цензуре контента. Это неотложная задача, говорит он, поскольку диалоговые агенты продолжают завоевывать пользователей по всему миру.
Гринбаум считает, что текущие дебаты о том, станут ли машины когда-нибудь сознательными, упускают из виду более насущную проблему. Фактически, диалоговые агенты уже способны симулировать ощутимые атрибуты сознания: они говорят, обладают подобием личности, интонациями, могут утверждать, что тронуты или взволнованы. Другими словами, даже если эти машины не обладают сознанием и, возможно, никогда не будут обладать им, в наших взаимодействиях с ними все происходит так, как если бы они были сознательны.
Это означает, что ИИ способен вызывать у нас реакции, схожие с теми, что мы испытывали бы перед человеком. Чат-бот может вызвать смех, улыбку и даже, если поддаться желанию, заставить нас влюбиться. ИИ погружает нас в иллюзию, что он нас понимает и сопереживает нам.
В результате наше поведение неизбежно изменится. Завтра ИИ может стать нашим учителем или своего рода альтер-эго, к которому мы сможем обращаться. Появятся новые нормы, и они могут кардинально отличаться от тех, к которым мы привыкли сегодня.
Одно из решений, которое предлагает Гринбаум, — воздействовать на задержки во взаимодействии. Если заставить пользователя не отвечать спонтанно, мы сможем защитить его автономию и ограничить влияние машины. Он считает, что введение задержки ответа — гораздо лучшая мера, чем фильтрация или модерация контента, поскольку такая стратегия может быть воспринята как цензура. Эта задержка может варьироваться от пятнадцати секунд до пяти минут и даже может быть динамически адаптирована самой машиной. Основная проблема заключается в том, что маркетинговые и рекламные службы будут категорически против, так как это значительно снизит виральность онлайн-контента, что требует введения регуляторных правил.
В конечном счете, вызов заключается в том, что компании разрабатывают новые технологии с такой скоростью, что наука не успевает их понять, а общество — адаптироваться к вызываемым ими изменениям. Это новая парадигма человечества: использование и осмысление сложных и загадочных технологий, в то время как их суть остается тайной.