Enhancing Trust in LLM-Based AI Automation Agents: New Considerations and Future Challenges
摘要:大语言模型(LLM)的快速发展和基于 LLM 的人工智能代理框架的出现,为进一步的研究带来了新的挑战和机遇。在流程自动化领域,新一代基于人工智能的代理已经出现,使复杂任务的执行成为可能。与此同时,通过用户友好的无代码工具和培训机制,企业用户更容易获得构建自动化的过程。本文探讨了这些新的挑战和机遇,分析了现有文献中讨论的人工智能代理信任的主要方面,并确定了与新一代自动化代理相关的具体考虑因素和挑战。我们还评估了此类新生产品如何解决这些问题。最后,我们强调了研究界在这一不断变化的环境中应该应对的几项挑战。
可靠性:始终如一地提供高度准确的结果。
- 数据质量和数量:用于训练代理的数据的质量和数量对于确保可靠性至关重要。
- 透明度和可解释性:用户应该能够了解代理是如何做出决策的,以及影响这些决策的因素。这将帮助用户识别和纠正错误和偏见。
- 人工监督和干预:人类应该能够监控代理的性能,识别错误,并在必要时进行干预。
- 测试和验证:应在各种条件下对代理进行测试,以识别和纠正错误和偏见。
开放性:包括目标、功能和算法运作的透明度。
- 技能:向用户披露代理拥有哪些技能,以及这些特定技能的全球可靠性、一致性和准确性水平。
- 目标:共享代理和构建代理的供应商的目标。
- 算法:用非技术术语披露算法的工作原理,以及用于训练模型的数据。
- 伦理:陈述任何道德或法律影响。
有形性:人类用户倾向于信任某些方面与自己有相似之处的代理。
- 视觉表示 (T-VR) 是指具有视觉(图形)表示的代理,例如头像。这种表示方式应与用户相关且可识别。
- 非语言线索(T-NVC)可以包括诸如传达互动渠道状态(闲聊、倾听、工作、说话)或通过面部表情或肢体语言传达情感之类的元素。
即时行为:在人与人之间在身体和心理上产生亲密感和喜欢感的行为。能够产生积极影响,并缩短心理距离。
- 同理心:使用对话语言来表达同理心,例如为错误道歉或未达到用户期望,可以创造更像人性化的体验。
- 风格适应:适应用户的沟通和工作方式还可以提高用户满意度,并与用户建立更牢固的关系。
任务特征:不同复杂度和敏感度的任务所需要的信任度也是不一样的
- 人工监督
- 自主操作
- 开放式任务