当前位置:首页 > 创业科技 > 正文

AI实时解读大脑信号,7倍速还原图像关键视觉特征,LeCun转发

训练上,研究人员用了一个名叫THINGS-MEG的数据集,包含了4个年轻人(2男2女,平均23.25岁)观看图像时记录的MEG数据。这些年轻人一共观看了22448张图像(1854种类型),每张图像显示时间为0.5秒,间隔时间为0.8~1.2秒,其中有200张图片被反复观看。

现在,AI已经能实时解读大脑信号了!

这不是耸人听闻,而是Meta的一项新研究,能够凭脑信号猜出你在0.5秒内看的图,并用AI实时还原出来。

在此之前,AI虽然已经能从大脑信号中比较准确地还原图像,但还有个bug——不够快。

为此,Meta研发了一个新解码模型,让AI光是图像检索的速度就提升了7倍,几乎“瞬间”能读出人在看什么,并猜出个大概。

像是一个站立的男人,AI数次还原后,竟然真的解读出了一个“站立的人”出来:

图片图片

LeCun转发表示,从MEG脑信号中重建视觉等输入的研究,确实很棒。

图片图片

那么,Meta究竟是怎么让AI“快速读脑”的?

大脑活动解码如何解读?

目前,AI读取大脑信号并还原图像的 *** ,主要有两种。

其中一种是fMRI(功能性磁共振成像),可以生成流向大脑特定部位的血流图像;另一种是MEG(脑磁图),可以测量脑内神经电流发出的极其微弱的生物磁场信号。

然而,fMRI神经成像的速度往往非常慢,平均2秒才出一张图(≈0.5 Hz),相比之下MEG甚至能在每秒内记录上千次大脑活动图像(≈5000 Hz)。

所以相比fMRI,为什么不用MEG数据来试试还原出“人类看到的图像”呢?

基于这一思路,作者们设计了一个MEG解码模型,由三个部分组成。

之一部分预训练模型,负责从图像中获得embeddings;

第二部分是一个端到端训练模型,负责将MEG数据与图像embeddings对齐;

第三部分是一个预训练图像生成器,负责还原出最终的图像。

图片图片

训练上,研究人员用了一个名叫THINGS-MEG的数据集,包含了4个年轻人(2男2女,平均23.25岁)观看图像时记录的MEG数据。

这些年轻人一共观看了22448张图像(1854种类型),每张图像显示时间为0.5秒,间隔时间为0.8~1.2秒,其中有200张图片被反复观看。

除此之外,还有3659张图像没有展示给参与者,但也被用于图像检索中。

所以,这样训练出来的AI,效果究竟如何?

图像检索速度提升7倍

整体来看,这项研究设计的MEG解码模型,比线性解码器的图像检索速度提升了7倍。

其中,相比CLIP等模型,又以Meta研发的视觉Transformer架构DINOv2在提取图像特征方面表现更好,更能将MEG数据和图像embeddings对齐起来。

图片图片

图片图片

不过,从生成示例中来看,这个AI还原出来的图像效果,确实不算太好。

即使是还原度更高的图像,仍然受到了一些网友的质疑:为什么熊猫看起来完全不像熊猫?

图片图片

图片图片

当然,研究人员也承认,MEG数据复原出来的图像效果,确实目前还不太行,主要优势还是在速度上。

例如之前来自明尼苏达大学等机构的一项名为7T fMRI的研究,就能以较高的复原度从fMRI数据中还原出人眼看到的图像。

图片图片

无论是人类的冲浪动作、飞机的形状、斑马的颜色、火车的背景,基于fMRI数据训练的AI都能更好地将图像还原出来:

图片图片

对此,作者们也给出了解释,认为这是因为AI基于MEG还原出来的视觉特征偏高级。

但相比之下,7T fMRI可以提取并还原出图像中更低级的视觉特征,这样生成的图像整体还原度更高。

你觉得这类研究可以被用在哪些地方?

论文地址:

https://ai.met *** /static-resource/image-decoding