不过研究人员强调,“AI读心”也要尊重心理隐私,AI的训练和应用解码器都需要着手解决有关该技术可能被滥用的问题,以确保人们只在他们想要的时候使用这类技术,并对他们有所帮助,而不是起到反向作用。

随着人工智能技术突飞猛进的发展,技术的风险以及如何对此加以监管,成为越来越受关注的话题。

就连一生从事神经网络学术研究的图灵奖得主、有“AI教父”之称的计算机科学家杰弗里·辛顿(Geoffrey Hinton)近日也对人工智能的发展产生了新的思考。为了警告AI技术潜在的风险而又免于利益冲突,辛顿本周公开宣布,他已离开工作了十余年的谷歌,转而成为AI技术的“吹哨人”。

辛顿表示:“我现在倾向于认为,我们正在创造的数字智能与生物智能非常不同。”

类似于ChatGPT这样的聊天机器人正在对各行各业形成颠覆性的效应。这种聊天机器人基于AI大模型,能够迅速地学习知识。事实上,在某些方面,它们的能力已经超越了人类。

“如果我有1000个这样的数字代理(AI agent),那么每当一个代理学习如何做一件事情的时候,其他所有的代理也都会立即知道,生物智能是不具备这样的能力的。”辛顿解释道,“因此,相同数字代理的集合可以获得比任何单个生物智能都多得多的知识,这就是为什么GPT-4比任何人都知道的多。”