闭目养神

如果你不幸进来了,你会失望。如果在这里,你学到点什么,或有什么感受,那更是浪费你的时间了,咳,咳!
个人资料
金笔 (热门博主)
  • 博客访问:
归档
正文

【随笔】人工智能,神经网络,生命现象,以及创新

(2023-04-05 08:53:30) 下一个

上次那篇 【随笔】人类文明与人工智能 (<<<点击阅读)没有被网管移走,谢天谢地!续上次话题,前几天马云回国,大概就在两天前,我看国内传出报导马云似乎在婉转地批评说,人工智能应该是用来造福人类,而不是用作开发人脸识别。所以马云还是挺敢说的。

我的评论:“人脸识别”说到底是为统治阶级服务的工具,而chat gpt则是为娱乐大众,是服务大众的工具。一个是为权贵开发,另一个是经济驱动,高下立判。关于两种体制下的AI就点到为止。再多说本帖子也保不了了,呵呵。

先说生命现象。从阿米巴细胞说起。阿米巴细胞是真核细胞,因为它是单细胞生物,所以也是真核细胞生命体中,最原始最简单的生命形式。阿米巴细胞是可以在营养液中沿着培养皿底部移动的。人们很早就发现了两种现象。一是假如你在培养皿的两端,一处加热,一处制冷。你会发现阿米巴会移动,一直移到它最适合的温度处(摄氏37度)停留下来。另外一个就是假如你在培养皿的一端放入糖类,阿米巴就会向着放糖的地方移动。这是因为阿米巴细胞表面有糖的受体,受体会引导细胞向糖原(假设此处的糖浓度最高)的方向移动。

这里你会发现,即使是最简单的单核细胞,它也是具有自我意识的认知(Cognitive-self consciousness)。再往上发展的生命体中,都保留了自我保护的意识和追逐食物这两种本能。上升到我们人类,自我意识认知体现在人喜欢扎堆,特别是跟你喜欢的人在一起,趋利避害等。这在潜意识里就有了。另外就是,当人肚子饿了的时候,人对食物的嗅觉会驱使他或她加快步伐向食堂冲去,等等。

另外一个有趣的生命现象是关于神经网络。神经元是怎么联络到一起的呢?大概是上个世纪八十年代被发现的。那就是在培养皿中的神经元,加入神经营养因子(NGF等),神经元的触突会沿着NGF的浓度梯度伸出它的触突或树突,试图与其他神经元建立联系。神经元之间的所谓“神经网络”也是靠浓度梯度的引导完成的,神经元是靠分泌神经营养因子来吸引其他神经元与它建立联系的。一般来说,一个神经元可以跟几百甚至上千的神经元建立联系。但这并不是完全平等的网络。有的神经元,如果它建立的联系(触突)不够多,它就会在人出生前后死去。而存活下来的神经元所建立的神经网络也是不平衡的,有的神经元可以与上千个其他神经元建立联系,有的可能只有几百。这就是神经元之间的差异,对个人来说,也可以造成个体差异。后面再说。

那么思想是怎么来的呢?在高级的生命体中,思想首先是自我存在意识(见上),然后再加上信息收集和记忆(这两者即是我们通常说的“洗脑”或教育过程),再加上逻辑推理和决策(后两者是自我学习过程)完成的。记忆的物理基础是海马回的神经元所组成的神经回路(神经网络的一种)。但是我们人类还有情绪反应,即喜怒哀乐,以及惧怕等。这方面因为我不熟悉,怕误导读者,故只提一下。但我们知道情绪是会影响记忆(痛苦的记忆会更持久)和推理和决策的。

目前的AI(人工智能)所基于的神经网络跟我们人的大脑还是有区别的,起码前者是平衡的,而后者是不平衡的,有的神经元权重高,有的则低。若以自动驾驶为例,AI实际上是具备完整的思想(思维能力)的,这包括自我意识,信息收集和记忆,逻辑推理和决策等。自从谷歌的超算 AlphaGo 击败韩国围棋王李世石后,AI在某些方面超过我们人类的智力,已经是不争的事实。除了记忆能力超强,现在的 ChatGPT 甚至还具有纠错和自我学习的能力,那就更上一层楼了。

就我们人来说,因为人类的神经网络是不平衡的,即有的神经元有更多的触突联系。这个过程是发生在人的胚胎生长阶段,完全是不可控的,也可能是随机的过程。因此即使是同卵双胞胎,接受同样的教育,但他们对同一事情也会做出不同判断。同样,同一个案件交由两个法官裁定,或者是同一法官在不同日子里裁定,可能就会做出不一样的裁决。这就注定我们人会经常犯错误。除了我们大脑的神经网络是不平衡的以外,我们还受到情绪波动,外在压力和身体状况的影响。

但是这些因素,比如神经网络中的差异等,在AI的“神经网络”中,似乎是可以完全避免。有研究表明,AI能够更为平稳的执行指令。我猜想如果所有路上驾驶的汽车都是AI的话,交通事故的发生肯定会大大地减少。

那么是不是统统都交给AI管理行不?当然也是不行的。因为到目前为止,AI并没有展现出创新的能力。

为什么AI没有创新能力呢?

我们得从创新的本质说起。什么是创新?

先举两个例子。一个是以前我看电视时,由GE插的广告里看到的。说的是某一次一个研究员误将一个烧杯里的溶液倒入另外一个烧杯里,第二天他来到实验室,结果他发现第二个烧杯里形成了一种非常非常坚硬的塑料材料。这是一个新的发明和发现。第二个例子是,人的体内被注射阿托品(迷走神经阻断药)后,普遍会产生血管舒张的降低血压的现象。但是当研究人员将动物的血管取出来测试时,他们总是发现阿托品引起血管收缩。后来有一次,他们在体外实验时,突然发现阿托品引起血管舒张!然后他们回头寻找原因时发现,这次实验中,血管的内膜是完整的。于是他们就发现,阿托品是作用在血管内膜细胞上,然后后者产生一种EDRF(即后来的NO分子),EDRF再作用在血管平滑肌上,造成平滑肌的舒张(诺贝尔医学奖)。

所以,创新多是来自人类的某些错误或失误,然后人们在寻找或者总结错误发生的原因时,出现了创新。假如AI永远是忠实执行人类给它的指令,永远不会(或者很少会)发生错误,那么它也就没有机会创新了。

所以,要AI也能够创新,其基本条件势必要放松对AI的约束。但这样就会带来危险。比如,人们想发现Tesla在什么条件下可以飞行。但在通常情况下,Tesla的时速是被控制在每小时一百英里下的。为了要测试Tesla会不会飞行,于是就将Tesla的最高时速增加到每小时六百英里,再做出各种危险的换道动作。这样是不是就对Tesla的乘客和其他高速公路上的车辆会造成危害?

跟AI不同的是我们人类在通常情况下,是受道德伦理和习惯约束的,我们人还具有empathy,是社会动物,因此有同事,亲友和家庭等。这些都是制约因素。但是AI有吗?前面说到,AI可能会产生仇恨(假如你给它灌输非常极端的思想),那么它会不会有妒忌心呢?这些我们都不知道吧?

这也就是为什么一笼·马斯克在几天前呼吁,暂停所有的AI研究。先把AI研究的规范建立起来,类似一个新版的日内瓦公约。在最大程度上,在获得AI的益处前,先保护我们自己免受其害(如果我对他的呼吁理解正确的话)。

 

[ 打印 ]
阅读 ()评论 (0)
评论
目前还没有任何评论
登录后才可评论.