最近,一项开创性的研究引起了人们对人类思想解码和隐私保护的关注。科学家们利用类似 ChatGPT 的 AI 模型,以前所未有的准确度被动解码人类思想,释放了大脑成像的新潜力,但同时也引发了隐私问题。
在这项研究中,科学家们采用了一种生成式预训练 Transformer (GPT) AI 模型,类似于 ChatGPT,从功能性 MRI (fMRI) 记录中重建人类思想,高达 82% 的准确率让人惊叹。这一突破为神经科学、通信和人机界面的潜在应用铺平了道路,但也引起了人们对精神隐私的担忧,强调了随着这项技术的进步,需要制定政策来保护个人免受潜在的滥用。
这项研究由德克萨斯大学奥斯汀分校的研究人员发表在《自然神经科学》(Nature Neuroscience) 杂志上。他们使用功能磁共振成像 (fMRI) 收集了三个人类受试者在听叙事故事时的 16 小时大脑记录。该团队分析了这些录音,以确定与单个单词相对应的特定神经刺激。
过去,从非侵入性信号中解码单词一直是一个挑战,因为尽管 fMRI 图像质量很高,但一个想法可以在大脑信号中持续长达 10 秒,导致记录捕捉到以典型速度说出的大约 20 个英语单词的组合信号。但是,通过使用定制训练的 GPT LLM,研究人员成功地创建了一个强大的连续解码工具,因为要解码的单词远远多于可用的大脑图像。GPT 模型可以从感知的语音、想象的语音甚至无声视频中生成可理解的单词序列,并且非常准确。感知语音(受试者听录音)的解码准确率高达 72–82%。
这项研究的突破为人们提供了许多可能性和潜在的未来应用,包括神经科学、通信和人机界面等领域。但与此同时,这项技术也引发了人们对隐私保护的担忧。为了解决这个问题,研究团队进行了一项额外的研究,其中使用来自其他受试者的数据训练的解码器来解码新受试者的思想。研究人员发现,“在跨受试者数据上训练的解码器的表现几乎没有超过偶然性”,强调了使用受试者自己的大脑记录进行准确的 AI 模型训练的重要性。
尽管如此,科学家们承认未来的解码器可能会克服这些限制,并且不准确的解码器预测可能会被滥用于恶意目的,就像测谎仪一样。因此,提高对大脑解码技术风险的认识并制定保护每个人心理隐私的政策至关重要。
在这个勇敢的新世界中,科技的不断进步为我们带来了许多机遇和挑战。我们需要平衡利用新技术的潜能和保护个人隐私的需求,以确保我们的社会和个人能够从中受益。
参考资料:https://www.artisana.ai/articles/gpt-ai-enables-scientists-to-passively-decode-thoughts-in-groundbreaking