Ключевые выводы
- Программы искусственного интеллекта, такие как Cogito, пытаются научить людей сочувствию в общении с клиентами.
- Эксперты расходятся во мнениях относительно того, может ли машина научить людей эмпатии или она просто находит точки данных.
- Некоторые эксперты также обеспокоены тем, что обучение ИИ эмпатии может лишить человечество этой эмоции.
Представьте, что вы работаете в колл-центре, и вам звонит клиент. Вы отвечаете, и тут же дела начинают идти плохо. Клиент злится, и напряжение растет.
Вы начинаете говорить вещи, о которых позже можете пожалеть. Внезапно на экране вашего компьютера появляется сообщение. «Подсказка к эмпатии - подумайте о том, что чувствует клиент. Постарайтесь установить с ним контакт».
Это не реальный человек, говорящий вам, что делать. Это сообщение от Cogito, программы искусственного интеллекта, призванной помочь работникам сопереживать разочарованным звонящим и повысить производительность. Cogito - одна из растущего числа программ искусственного интеллекта, которые пытаются научить людей сочувствию.
Здесь очевидная ирония. Человеческие ученые десятилетиями пытались создать более реалистичные компьютеры. Теперь машины говорят нам, как себя вести. Но может ли программа действительно научить нас быть более чуткими? Это проблема, которая может иметь серьезные последствия, поскольку искусственный интеллект начинает проникать в повседневную жизнь.
ИИ имитирует поведение человека
С технической точки зрения ясно, что ИИ может улавливать подсказки о том, что чувствуют люди, и давать обратную связь.
«Искусственный интеллект и системы машинного обучения очень хорошо находят закономерности в данных», - сказал в интервью по электронной почте Адам Поляк, научный сотрудник в области компьютерных наук в колледже Барнарда.
"Если мы дадим ИИ много примеров эмпатического текста, ИИ сможет обнаружить шаблоны и сигналы, которые вызывают или демонстрируют эмпатию."
ИИ может быть запрограммирован на то, чтобы разрушить некоторые виды человеческого поведения, сопровождающие эмпатию, и напомнить людям о необходимости их выполнения, но это не учит эмпатии.
ИИ, который анализирует человеческие реакции, может помочь преодолеть растущий разрыв между людьми, когда мы общаемся в цифровом формате, сказал Брет Гринштейн, эксперт по искусственному интеллекту в Cognizant Digital Business, в интервью по электронной почте.
«За последний год видео, голосовые сообщения и обмен сообщениями в режиме реального времени развивались быстрее, чем кто-либо мог себе представить, и с этим возникли огромные проблемы в создании по-настоящему эмпатических отношений без реального физического общения с людьми», - он добавлено.
По словам Гринштейна, ИИ может помочь анализировать и оценивать такие характеристики речи, как тон и эмоции. «Это может помочь человеку, получающему сообщение, лучше понять, что имелось в виду, и помогает человеку, «говорящему», показать, как можно интерпретировать сообщения», - добавил он..
В то время как компании спешат нажиться на программном обеспечении для обучения ИИ, таком как Cogito, вопрос о том, может ли ИИ научить людей сочувствию, остается открытым. И ответ может быть связан как с философией, так и с технологией.
Илиа Делио - теолог из Университета Вилланова, работа которого сосредоточена на стыке веры и науки. Она считает, что ИИ может научить сочувствию.
Делио отметил, что команда Массачусетского технологического института создала роботов, которые могут имитировать человеческие эмоции, такие как счастье, печаль и сострадание. «Хотя эмоции роботов запрограммированы, роботы могут взаимодействовать с людьми и таким образом устанавливать или укреплять нейронные паттерны», - сказала она.
Может ли машина понять эмпатию?
Эксперты определяют как минимум три формы эмпатии, каждая из которых включает в себя способность понимать другого человека и относиться к нему, говорит Карла Эриксон, социолог из Гриннелл-колледжа в Айове и автор готовящейся к печати книги «Неряшливые люди: социология социума». Human/Machine Relations, в котором исследуются наши отношения с технологиями.
«Отношения - это не то, что ИИ может сделать, и это основа для эмпатии», - сказал Эриксон в интервью по электронной почте.
ИИ может быть запрограммирован на то, чтобы разрушить некоторые виды человеческого поведения, которые сопровождают эмпатию, и напомнить людям о необходимости их выполнения, но это не учит эмпатии. Отношение, особенно с точки зрения эмпатии, потребует от слушателя необходимый контекст для связи - под этим я подразумеваю, что «жизнь» ИИ не включает в себя потери, тоску, надежду, боль или смерть».
Однако эксперты спорят о том, может ли ИИ научить нас сопереживать. Часть проблемы заключается в том, что не все согласны с тем, что вообще означают «эмпатия» или «ИИ». Термин «искусственный интеллект» часто используется, но в настоящее время это не тот тип интеллекта, который мы считаем человеческим.
Это чистая инженерная работа, и я не питаю иллюзий, что ИИ, о котором идет речь, сам испытывает эмоции или действительно понимает эмоции.
«Сигналы эмпатии» не имеют ничего общего с эмпатией», - сказал в интервью по электронной почте Майкл Специо, профессор психологии, нейронауки и науки о данных в Scripps College.
Это реплики от голосов, которые люди-оценщики классифицировали как голоса людей, которые раздражены/раздосадованы. Так что это просто использование человеческого опыта в математической модели, а затем утверждение, что модель, построенная на человеческом опыте, является Ограниченные подходы к машинному обучению, подобные этому, часто преподносятся как искусственный интеллект, не будучи разумным».
В политехническом институте Ренсселера лаборатория Селмера Брингсйорда занимается построением математических моделей человеческих эмоций. Исследование направлено на создание ИИ, способного набрать высокие баллы в тестах на эмоциональный интеллект, и применить их к людям. Но Брингсйорд, эксперт по ИИ, говорит, что любое обучение ИИ непреднамеренно.
"Но это чисто инженерная работа, и я не питаю иллюзий, что ИИ, о котором идет речь, сам испытывает эмоции или действительно их понимает", - сказал он в интервью по электронной почте.
Что может пойти не так?
В то время как такие компании, как Cogito, видят светлое будущее в обучении людей искусственному интеллекту, другие наблюдатели более осторожны.
Supportiv, онлайн-служба психического здоровья, использует искусственный интеллект для направления каждого пользователя на основе любой мысли, которую он выражает, в режиме реального времени в группу поддержки по конкретной теме, которая динамически собирается для пользователей с похожими проблемами.
В каждой группе есть «сверхмощный» человек-модератор, который обеспечивает безопасность и отсутствие троллей в текстовом чате и может отображать, опять же через ИИ, соответствующие ресурсы, рекомендации и рефералы прямо в групповой беседе. Используя ИИ, Supportiv обучает своих модераторов уметь определять интенсивность эмоциональных потребностей.
«Эмпатия - это мышца, которую мы наращиваем», - сказала Зара Дана, специалист по данным из Supportiv, в интервью по электронной почте.
Если мы начнем использовать костыль для ходьбы, наши мышцы атрофируются. Я не могу не задаться вопросом, будет ли зависимый работник чувствовать себя уверенно, если система ИИ однажды не будет подключена к сети? Сможет ли она это сделать? работать эффективно? Каковы долгосрочные последствия для работников? Как бы они справились со сложными социальными ситуациями, когда ИИ отсутствует?»
Даже если использование ИИ для обучения эмпатии работает, что происходит, когда мы начинаем слишком полагаться на ИИ для тренировки эмоций? Одним из возможных недостатков является то, что люди могут больше привязываться к роботам, чем к другим людям, потому что роботы не могут выбирать против своей программы, указал Делио.
«Человеческая способность к свободе воли ставит человеческую свободу действий в более двусмысленное положение», - сказал Делио. «Человек может быть сострадательным в один день и безжалостным в следующий; робот останется неизменно сострадательным, если его не научить делать иначе».
Многое может пойти не так, если ИИ научит людей вести себя как люди, говорят эксперты.
Мы эволюционировали, чтобы стать социальными животными, и наша эмпатия занимает центральное место в нашей способности общаться с другими и заботиться о коллективах, к которым мы принадлежим.
«Без человеческого контроля ученик может узнать что-то совершенно сумасшедшее», - сказал Брингсйорд.
"Тон и высота голоса являются просто поведенческими коррелятами, не имеющими никакого содержания. Доллары за пончики мой голос во время преподавания в классе был бы воспринят многими… как указание на то, что я расстроен, в то время как на самом деле я' я просто страстный и нуждаюсь в сочувствии."
Если обучение людей искусственному интеллекту будет процветать, мы можем положиться на него. И это не всегда хорошо.
«Это обучение обесценивает человеческие навыки, которые значительны, и переключает внимание на ИИ, как будто они обладают опытом», - сказал Эриксон.«Мы эволюционировали, чтобы стать социальными животными, и наше сочувствие играет центральную роль в нашей способности общаться с другими и заботиться о коллективах, к которым мы принадлежим».