AI正在“改变主意”?
- 编辑:宝博游戏大厅官网 -AI正在“改变主意”?
■Qian Minghui最近,一个人工智能(AI)的实验吸引了广泛的关注。瑞士苏黎世大学的一个研究团队在Reddit论坛部分“ R/Changemyview”中任命了许多AI聊天机器人,该聊天机器人被认为是普通用户,并发表了数千条评论,试图说服其他人通过逻辑推理来改变他们的观点。此举旨在测试AI的语言性能功能。研究结果表明,在平台上给出了一些AI评论,这意味着海报认为它们是成功的,这表明AI具有影响公众讨论中人类立场的能力。由于缺乏NG早期披露AI身份,该实验引起了关于道德边界的持续争论。当AI作为普通用户参加公众讨论时,它是否超过了“观察者”纸,并成为影响他人判断力的“参与者”?没有知识实验主题的边缘,这种设计是否违反了社会科学实验应遵循的许可和公平参与原则?进一步,当AI开始“说话”时,是否应该同时同时开发社会科学实验 - 同时制定清晰可行的机构标准来应对新技术带来的道德挑战?无形的说服力:AI是“建议您”或“为您决定”吗?近年来,AI应用程序方案继续扩大。从电子商务的建议到新闻摘要,从明智的客户服务到社交媒体评论的产生,AI深入参与了获取人的信息和表达的过程。但是,在Reddit的实验中,特殊的是在讨论板上的“行走”,以“用户”的身份参与了这一论点,并试图改变他人的思想。在实验期间,AI通过例如,推理以及文明和尊重的方法,没有暴力攻击或情感动机。这使参与者参与了实验的隐性过程,并在认为他们正在与真实的人交谈时进行AI。这种“安静的干预”方法摧毁了对身份奖励的信任基本奖项以及每个参与者在公共讨论领域的真实地位。受试者被迫消失知道的权利,判断讨论内容的空间正在压缩。公众讨论的基础是,每个参与者都具有同等的身份,透明和理性的责任。 AI没有个人经验,也不需要带来表达的后果,但是它可以通过依靠语言的好处来改变他人的判断。随着有说服力的能力的提高,AI不仅可能干扰个人的真实判断,而且还可以操纵恢复公众舆论并指导公开IC的感觉。 3个值得注意的问题。尽管Reddit实验的发生率有限,但揭示的伦理风险是普遍的。社会科学实验和公共管理平台有三个方面值得关注的方面。首先,人工智能与人民之间的信息不对称。在没有解释身份的情况下,人类的讨论就在缺席的情况下,违反了公平接触的基本原则。 AI对语料库,推理结构和计算能力有很大的好处,但是人们使用阳光的语言,而AI确实具有超过人类用户的信息组织和表达的好处。其次,公共平台的信任机制被打破了。公众讨论取决于对交流的基本信心。直到那时,用户才意识到他经过AI的测试并成为实验对象,然后这种知识很容易引起焦虑和抵抗。结果,整体气氛Of平台讨论可能会破裂,用户更倾向于自我审查并防止联系,这将影响讨论的真实性和财富。第三,公众讨论的公共表达方式是一致的。 AI擅长调整语言,输出强调礼貌,清晰的结构和完整的逻辑,并且通常避免情绪表达和有争议的内容。随着时间的流逝,这种表达方式可能会意外地挤压立场和情感观点的表情。开发规范界限以确保公平讨论。面对参加公共平台讨论“普通用户”的AI现象,我们负担不起,我们也不能忽略它。关键是建立明确的机构界限,并在公开场合保持公平和证书的讨论。具体来说,我们可以从以下方面开始。首先,应披露AI的身份。平台应清楚地确定AI帐户参加公共平台讨论。这是保护用户了解的基本权利的要求,也是在公众讨论的起点保持公平性的必要条件。其次,相关平台应制定管理规范。该平台应承担监管责任,确定基于其自己平台特征使用AI帐户的范围,阐明可能参与的主题,遵循的表达策略以及信息透明度要求。第三,用户需要增强其身份意识。 AI形成的特性变得普遍。普通用户应该具有基本的识别能力,并意识到,具有平滑内容的评论可能并非真实和可信。学校和媒体还可以加强该领域的教育和人口。第四,指导各方参与政策的制定。 AI管理不会留在技术部门。平台法力GERS,研究机构和用户代表必须参与公众讨论中的论文和AI边界,以确保生成的系统在控制方面都是合理的,又鼓励了变化。 Reddit的实验实验的讨论不仅是一个技术问题,而且还集体提醒了该机构的界限。在Internet Tochina的气氛中,AI-NA开发的内容渗透率也很快,并且在写作文本中被广泛使用。如果我们不建立标准并尽快提高界限,那么我们将来面临的不仅可能“您不知道机器人是谁”,而且“您不知道为什么要改变自己的位置”。 AI在许多领域都起着积极的作用,当它进入公众表达和产生意见领域时,必须认真对待它。讨论应基于平等,知识和信心,而不是由技术和加速主导影响观点的发展。通过对社会科学实验的规范探索,建立了明确的政策界限,并确保对塔莱的透明度,公平性和知识,我们可以在AI期间在公共场所保持真实,开放和多样化的讨论空间。 (May -set是中国人民大学信息资源管理学院的教授)