介绍
能够读取、解读和响应情绪信号的系统的出现,引发了关于情绪、人工同理心和责任感的具体问题。本文阐述了定义、技术、应用和局限性,并提出了一些开放性问题,但不作任何价值判断。
什么是情感人工智能?
情感人工智能旨在从语音、面部表情、文本或生物特征等数据中识别和处理情绪状态。该技术结合传感器、机器学习模型和规则,以与悲伤、愤怒或快乐等状态相关的模式
实际运作方式
该系统使用多模态信号:音频用于语调,视频用于微表情,文本用于语义分析。监督学习模型将这些信号与数据库中的情感标签关联起来。此外,个性化算法会根据历史记录和上下文调整响应。
当前应用
- 客户服务:检测通话中的挫败感以确定优先响应。
- 心理健康:监测情绪变化以提醒专业人士的工具。
- 教育:虚拟导师可根据学生的学习动机调整学习进度。
在日常工作中,这些应用程序寻求改善交互,但不会取代专业人员。
技术和哲学的限制
模拟与主观体验之间存在一个关键区别。模型可以重现情感信号并调整响应,但没有客观证据表明它们体验到意识或内在体验。此外,准确性取决于数据质量、样本多样性和文化背景。
“机器不像人类那样有感觉,”那些强调可观察行为和主观经验之间差异的人说。
风险、偏见和隐私
模型可能会反映训练数据中存在的偏差,从而影响自动化决策。此外,情感信息的收集会带来隐私和知情同意方面的挑战,尤其是在其使用持续或不透明的情况下。
法律和道德框架
一些国家正在讨论制定监管情绪数据收集、算法透明度和问责制的法规。提案内容包括审计义务、监控使用限制以及用户对其情绪数据的权利。
评估和指标
绩效测量采用经典指标,例如精确度、召回率和情感检测的具体指标。然而,外部效度取决于样本的代表性和使用环境。在比较研究中,建议报告基于性别、年龄和出身地的偏差。
未解决的问题
- 模拟情绪在多大程度上等同于拥有情感体验?
- 在公共和私人服务中使用情感数据应该受到哪些道德限制?
- 如何确保使用多元文化数据训练的模型的透明度和公平性?