人工神经网络的记忆,存储在权值矩阵和偏置上,是一种耦合,动一发而牵动全身。所以,人工神经网络,不好进行局部训练,这和人脑的记忆极不符合。人脑记忆,是生长型,可随意加强某个记忆,而不影响其它记忆的稳定。但人工神经网络也是映射了记忆的结构,不好修改不影响它成为通用智能,因为只要数据足够大就包含足够多的智慧在里头。我们人脑的记忆,是连上下文(语境)和记忆内容一起记忆的,然后通过输入信息与上下文比对,而进行回忆操作。人工神经网络(NLP),是通过网络结构通用的算出任何语境下,下一个事物的条件概率,或说似然又或分类。如果说,人脑记忆是原始数据,那人工神经网络就是用某种算法压缩数据,是一种优化数据,然后遇到实际情况就计算解压数据。但这种压缩带来了却是数据高度的耦合,它减少了数据的冗余,也带来了不易修改的特点。假设NLP获得了意识,它想修改自身,也是需要研究人脑或者其它结构来代替它自身的记忆结构。NLP通过训练,比对实际输出和期望输出数据的差距,不断的修改权值矩阵,来达到把人类记忆里包含的各事物的关系即智能,拷贝进矩阵的目的。比如attention更是进行自相关和互相关,通过训练来确定各事物关系。