研究警告:AI可能加剧社交媒体的两极分化

研究警告:AI可能加剧社交媒体的两极分化

阅读时间: 1 分钟

人工智能可能会在社交媒体上加剧极化现象,康科迪亚的研究人员和学生们发出警告,他们对言论自由和错误信息表示担忧。

急着了解?以下是快速事实:

  • AI算法只需使用关注数和近期帖子就能传播分裂。
  • 强化学习机器人能迅速适应并利用社交媒体的弱点。
  • 专家警告,平台面临着要么进行审查,要么任由操纵肆虐的风险。

尽管社交媒体上的极化现象并非新鲜事物,但康科迪亚大学的研究人员和学生活动家警告说,人工智能可能会使这个问题变得更为严重。

“我们没有看到实际发生的事情的录像,也没有看到记者报道的内容,而是看到过于戏剧化的关于我们应该关心的政治问题的人工智能艺术……这真的使人们疏远,并消除了责任感。”康科迪亚学生联合会的外事和动员协调员丹娜·巴兰泰恩如此说道,这是由The Link报道的。

她的担忧反映了康科迪亚大学的新研究,在这个研究中,教授拉斯科·R·塞尔米奇和博士生穆罕默德·N·扎里尔展示了强化学习机器人如何在网上引发分裂。“我们的目标是了解人工智能在极化和社交媒体网络上可以达到什么程度的影响,并模拟它……以衡量这种极化和不同意见如何产生。”扎里尔在The Link的报道中说道。

这些发现表明,算法并不需要私人数据来挑动分歧,基本的信号,比如关注者数量和最近的帖子就足够了。“这令人担忧,因为[虽然]这不是一个简单的机器人,但它仍然是你可以在你的电脑上创建的算法[…] 当你拥有足够的计算能力时,你可以影响越来越多的网络,”Zareer在接受The Link采访时解释道。

这反映了更广泛的研究结果,显示了如何利用强化学习来武器化,推动社区分裂。Concordia的研究使用了双重深度Q学习,证明敌对AI代理可以“灵活适应网络内的变化,使其能够有效地利用结构性漏洞,扩大用户之间的分歧,”研究指出。

的确,双重深度Q学习是一种AI技术,通过试错法,机器人可以学习到最优的行动。它使用深度神经网络处理复杂问题,并使用两个价值估计以避免过高估计奖励。在社交媒体中,它可以策略性地传播内容,以最小的数据增加极化。

Zareer警告说,政策制定者面临艰难的平衡。“在监控和审查以及试图控制网络之间有一条微妙的界线,”他对The Link说。监管过少可能让机器人操纵对话,而过多则可能压制自由言论。

与此同时,像Ballantyne这样的学生担心AI正在抹去他们的生活经验。“AI完全将其抹去,”她对The Link说。

你喜欢这篇文章吗?为它打分!
我非常不喜欢 我不怎么喜欢 一般 挺好! 非常喜欢!

我们很高兴您喜欢我们的作品!

尊贵的读者,您介意在Trustpilot上给我们点赞吗?这很快,但对我们来说意义重大。不胜感激!

在Trustpilot上给我们评分
00 用户投票
标题
评论
谢谢你的反馈