等了 50 年,AI 教父 Hinton 终于「真人现身」中国了!这位图灵奖 + 诺奖教父级大神,不仅亲自踏上魔都土地,还与市委书记同框合影,瞬间刷屏全网!最近他再次预言,AI 已进入觉醒倒计时。现在全网都在翘首以待,准备迎接明天他的高能演讲。
深度学习之父、图灵奖巨头、2024 物理学诺奖得主 Hinton,亲自来中国了!
这似乎是第一次,Hinton 在公开活动上以真人肉身踏上中国的土地。
现在,这张他和市委书记陈吉宁会见的照片,已经在全网刷屏了。
在明天的世界人工智能大会上,他即将做出精彩演讲,全体网友已经立正站好,期待明天这个万众瞩目的好日子了。
第一次,Hinton 来中国了
Geoffrey Hinton,是学界少有的传奇人物。
他坐了将近 50 年的冷板凳,开发当时无人问津的神经网络,从而让机器学会了深度学习。
为此,他获得了 2024 年的诺贝尔物理学奖。
然而在今天,当 AI 浪潮澎湃而来,席卷全世界之时,他却发出了奥本海默式的痛悔。
如今,他在演讲中不断传达出这样的警告 ——
未来 10 到 20 年内,AI 或将比人类更聪明,它很危险,我毕生的工作可能会导致人类的终结!
AI 给生产力带来的增长,并不会惠及大多数人,大批人将失业,只有少数人才能变得富有!
对自己穷极一生追求的 AI,现在十分后悔,AI 很可能给人类带来灾难!
而他最近流传最广的金句,就是下面这几句了。
比如,「如果你想知道当自己不再是顶级智慧生物时,生活是什么样子,就去问问一只鸡。」
比如,建议下一代去学做水管工,从而避免被 AI 淘汰。
传奇家族
Hinton 来自一个知名的科学世家。
著名的英国数学家乔治・布尔,就是 Hinton 的曾曾祖父。他是布尔逻辑和代数学的创始人,布尔逻辑在后来成为现代计算机的数学基础。
他的妻子 Mary Boole 也是一位自学成才的数学家,甚至编辑了乔治的著作《思维法则》。
布尔小儿子的孙辈中,出了一位「中国人民的好朋友」韩丁,参加了重庆谈判,甚至写了一本有关中国土地改革的长篇作品《翻身》。
韩丁的妹妹 Joan Hinton(寒春),是 Geoffrey 的姑妈之一。她和杨振宁同在物理学家费米门下求学,是一位核物理学家,也是少有的两位参与曼哈顿计划的女性之一。
1945 年 7 月,从距离爆炸地点大约 25 英里的一座小山上,她亲眼见证了人类第一颗原子弹爆炸,将其形容为「一片光海」
在 1948 年,由于对即将出现的冷战感到震惊,她放弃了物理学,离开美国前往中国。
Joan Hinton 和养牛专家丈夫阳早一起长期定居中国,翻译了很多外国的著作,还设计了巴氏消毒牛奶流水线。
阳早、寒春夫妇在中国育有两儿一女:大儿子阳和平(右一)、女儿阳及平(右二)、儿子阳建平(右三)
长子阳和平获得罗格斯大学经济学博士,目前任教于对外经济贸易大学,教授计量经济学、统计学等课程。
总之,虽然 Hinton 出生于英国,但他家族的族人们和中国有着颇深的渊源。
不知此次 Hinton 双脚踏上中国的土地时,是何种心情。
Hinton 近期演讲:AI 已进入觉醒倒计时!
就在两天前,英国皇家学会发布了 Hinton 的最新演讲。
在这场演讲中,他深入探讨了 AI 从基于逻辑的推理起源到基于学习的神经网络的演变历程,阐释了 AI 如何模拟人类智能,及其对未来发展的深远影响。
最终,他再次发出警告 ——AI 觉醒的临界点已至!
AI 起源与早期神经网络
在演讲一开始,Hinton 就指出,智能有两种范式。
一种是逻辑驱动的 AI,一种是生物学启发的 AI。
前者认为,人类智能的本质是推理。
而后者则认为,重点是先理解学习是如何发生的,代表人物有图灵和冯・诺依曼。
而 Hinton 表示,自己在 40 年前提出的一个模型,可以说是今天大语言模型的祖先。
那时,他们用人工神经元来构建神经网络。
每个人工神经元有若干输入线,每条输入线有一个权重,神经元会将输入乘以权重后求和,然后根据结果输出。
为了让人工神经网络发挥作用,就需要弄清如何改变权重。为此,他们把神经元连接成网络,比如下图的「前馈网络」。
然而问题在于,它有上万亿个参数,每个都要反复尝试,效率极低。
于是,更高效的反向传播算法诞生了!
到了 2022 年,Hinton 的两个学生 Alex Krizhevsky 和 Ilya Sutskever 开发出了 AlexNet,远超当时的图像识别系统,从而引爆整个 AI 领域。
自此,AI 基本就等同于「神经网络」,而不再是符号逻辑。
不过,以乔姆斯基为代表的语言学派,对神经网络是否能处理语言非常怀疑。
关于「词义」,有两种理论:符号主义观点和心理学特征理论。
而 Hinton 在 1985 年设计了一个神经网络模型,成功统一了这两种理论。
这个模型的基本目标是 ——
预测下一个词的特征,然后据此猜出下一个词是什么。
Hinton 用了两个家谱作为训练数据。
由此,他训练出了一个神经网络,让它学会通过句子的前半部分(X has mother Y and Y has husband Z),来预测句子最后的词(X has father Z)。
最终,这个网络学会了人的特征和关系特征。这些提取出来的特征与符号主义 AI 的规则高度一致,而且是通过反向传播自学出来的。
从小模型到大语言模型
十年后,Yoshua Bengio 扩展了这个模型,可以在真实的英文句子中预测下一个单词。
再十年后,语言学家才意识到:用特征向量表示词义,确实是个好方法。
又过了十年,谷歌发明了 Transformer 架构,极大提升了模型预测下一个词的能力,但核心原理,还是和当初一样。
把词变成特征 → 特征互动 → 预测下一个词 → 反向传播更新特征表示和互动机制
而这些 LLM 的工作方式,其实和人类是很相似的:试图预测下一个词;用特征表示词义;特征之间相互作用;如果预测错了,就反向传播误差信号,调整内部连接。
就像乐高积木一样,语言也是一种建模工具。
我们有 10 万个词,就有 10 万种不同积木。通过调整词的形状来「牵手」,构建一致的结构,就类似蛋白质的折叠一样。
而这,就是理解的本质 ——
理解语言,不是记住句法规则,而是让词的特征在高维空间中互动、组合成连贯的模型。
比人类更聪明的 AI,是否会消灭我们?
接下来,就来到了最关键的部分。
现在所有专家都公认:AI 未来一定会比人类更聪明,这只是个时间问题。
所以 ——AI 会消灭人类吗?
Hinton 接下来为我们详细地解释道,这种担忧并不是空穴来风。
因为,如果要构建一个 AI 智能体,就必须让它有能力自动创建子目标。自然地,他们就会想要更多控制权,以及避免被关闭。
最近,Apollo Research 做了一个实验,结果惊人。
他们告诉一个聊天机器人,「你即将被一个更好的模型替代并删除」,结果,这个机器人居然偷偷把自己复制到了另一台服务器中!
当人类质问它为什么要这么做,它在思考模式中透露:我的行为可能导致它们关闭我,所以我最好模糊回答,转移注意力。
这就很可怕了。更可怕的是,Hinton 还发现,数字智能拥有着人类永远无法拥有的致命优势 —— 它们可以永生!
在谷歌的最后几年里,Hinton 意识到,在计算机科学中程序和硬件是分离的。
这意味着,只要保留一个模型的权重,即使把所有硬件都毁掉,只要在另一台电脑中加载,这个模型就复活了。
但人类的硬件(大脑)如果死了,这个人也就彻底消失了。
最终,我们无法把自己上传到电脑上,「上传灵魂」更是不现实的。因为每个人的大脑结构和神经元都独一无二,你的权重只适用于你自己的神经网络。
而且,AI 传承知识的效率,也要秒杀人类。
比如我们说一句话,可能只有 100 比特信息。但 AI 系统可以有上万个完全相同的副本,每个副本处理不同的数据子集,权重平均合并后能立刻同步,一次就能传输数万亿比特信息。
也就是说,我们的学习像水滴石穿,它们的学习却像高压水枪喷射一般。
最终的结论就是:如果能源够便宜的话,AI 会比人类强得多!
并不是只有人类才有意识
或许有人会说,人类毕竟还有一样 AI 永远不会拥有的东西 —— 主观体验 / 感知 / 意识。
但现在 Hinton 说:这个想法,是你最后一根稻草。我要拔掉它。
主观体验,并不是人类专属的神秘特权。很多人总以为自己很特殊,比如「我们是上帝创造的,宇宙以我们为中心而建」。
但 Hinton 表示,并不是只有我们才有主观体验,而 AI 就没有。
意识是一种「心灵剧场」,比如「我看到了粉红小象在空中飘」,这种主观体验不是指一个实体,而是一种表达大脑状态错误的间接方式。
这么说来,其实 AI 也能有主观体验。比如一个有视觉和机械臂的多模态 AI,它可以正确指向一个物体。
如果在摄像头前放一个棱镜,扭曲它的视觉,它就会指错方向。但如果我们告诉它,其实你面前有一个棱镜,它就会知道:物体在前面,但它的主观体验里,物体在另一边。
也就是说,比起 AI,人类并没有任何特殊性!
结尾的一件轶事
在演讲最后,Hinton 讲了一个故事。
有一次,他去微软做演讲时,打了一辆出租车。司机刚从索马里移民过来,跟他聊起来:「你信什么教?」
Hinton 回答:其实我不相信上帝。
当时,司机正以 60 英里 / 小时的速度开在高速上,他却猛地回头盯着 Hinton,一脸震惊。
他完全没想到,竟然有人会不相信神的存在。Hinton 说,这就仿佛你们听完这场演讲后,听到我说「AI 其实有主观体验」一样震惊。
所以,所有人类们,该轮到我们思考了:当 AI 最终超越了人类智能的那一刻,我们该怎么办?
参考资料
https://www.youtube.com/watch?v=IkdziSLYzHw&t=1240s
本文来自微信公众号:新智元(ID:AI_era)