一段4月1日由Neuralink发布的视频,让许多人第一次直观感受到:用意念说话,或许已不再是科幻。
画面中的男子名叫肯尼斯·肖克,是一名ALS(肌萎缩侧索硬化症)患者。他没有张嘴,也没有发出声音,一旁的音响却清晰地播放出一句话:“我正在用我的意念和你们对话。”
据Neuralink介绍,这并非“读心术”,而是脑机接口技术的一次具体应用。
从失语到尝试“复声”
肖克于2024年被确诊为ALS,随后逐渐失去说话能力。到2026年初,他已很难完成一次完整对话。2026年1月,他接受了Neuralink的N1脑芯片植入手术。其妻子谢丽尔回忆,手术第二天医院就让他回家了,恢复过程较为顺利。
不是读取思维,而是捕捉说话意图
Neuralink在相关博文中解释,植入物并未读取患者脑中所有的念头,而是专注于捕捉与“说话”相关的神经信号。当患者试图发出某个词时,大脑会向嘴巴、舌头、声带等肌肉发送指令,芯片截获的正是这些信号。
系统将神经信号实时解码为“音素”(语音中的最小声音单元),再组合成词语和句子。Neuralink脑机接口应用负责人尼尔·埃文·陈举例说,此前的Telepathy产品主要记录控制手部动作的脑区,而负责言语执行的区域,大约在下方两到三英寸处。
三个训练阶段:从有声到无声,再到默念
Neuralink机器学习工程师斯凯勒·格拉纳蒂尔通过视频介绍了训练流程,共分为三个阶段:
第一阶段(有声):术后立即开始。肖克大声说出句子,系统记录对应的神经信号,建立“神经意图”与“实际词语”之间的映射关系。
第二阶段(无声口型):肖克只做出说句子的口型,不发出声音。系统继续识别神经信号并输出正确词语。
第三阶段(默念):肖克不需要动嘴,只在心里默念。系统捕捉对应的神经活动完成解码。
工程师表示,目标是通过“意图动嘴”即可解码语音。训练中,肖克被鼓励放慢发音、吐字更清晰。有一次系统表现突然大幅提升,工程师形容“模型性能从0飙升到了100”。
声音来自生病前的录音
一个引起较多关注的细节是,设备朗读时使用的并非机器合成音,而是肖克2020年生病前的声音。
其妻子谢丽尔解释,他们是在新冠疫情期间注意到肖克声音开始变化的。2024年1月正式确诊ALS。Neuralink找到其生病前的录音,通过AI还原了当时的音色。当设备第一次用那个声音说出“我爱你”时,谢丽尔表示情绪非常激动。
目前的技术局限与目标
从视频中可以看到,肖克每次“想”出一句话后,系统需要几秒钟才能完成捕捉、解码、合成、朗读的全流程。Neuralink方面也承认,目前解码过程存在几秒延迟。工程师表示,目标是构建一个能从大脑实时、直接转化为语音的系统。
此外,Neuralink方面称,其设备能同时从数千个通道进行单神经元记录。
仍在研究阶段,未上市销售
需要特别说明的是,根据Neuralink官方在X平台上的表述,目前所有设备均处于研究阶段,尚未获得FDA批准,也未上市销售。其面临的技术挑战包括长期安全性验证、神经数据隐私以及政府审批等。
马斯克:恢复说话只是第一步
马斯克在X平台上转发了相关视频,并表示:“Neuralink正在为那些失去说话能力的人恢复语言能力。”他还提到了另一个名为“Blindsight”(盲视)的项目,目标是为完全失明者(包括先天失明者)恢复视力。该项目目前仍处于实验阶段,预计未来进行人体试验。
肖克本人的态度
在视频结尾,肖克表示,Neuralink给了他新的目标。他无法治愈ALS,但可以通过参与研究和提供反馈来帮助改进技术。他认为声音非常重要,并希望在有限的时间里,尽己所能为他人做一些有益的事。
说明:以上内容均基于Neuralink公开的视频、博文及官方社交媒体信息整理,未添加原文之外的事实性描述。技术能力、阶段、风险等信息以Neuralink官方表述为准。
【免责声明】部分数据来源于网络公开报道及行业资讯,如有侵权,请及时与本网站联系,我们将第一时间予以删改。文中所涉观点、数据及分析仅代表小编个人观点,仅供参考,不构成任何投资建议、商业决策依据或法律承诺。投资有风险,决策需谨慎;任何单位或个人据此进行商业决策、经营行为所产生的风险,均自行承担。