【环球时报记者 陈子帅 环球时报特约记者 李静】编者的线世界人工智能大会时◈✿✿★,诺贝尔物理学奖得主青年大学习第八季第三期答案◈✿✿★、有“人工智能(AI)教父”之称的著名学者杰弗里·辛顿发表演讲◈✿✿★,对数字智能是否会取代生物智能进行探讨k8com凯发◈✿✿★。同样出席这场大会的加州大学伯克利分校计算机系教授斯图尔特·罗素则表示◈✿✿★,不希望数字智能取代生物智能◈✿✿★。什么是数字智能?什么是生物智能?两者有哪些区别?能否共生?近年来◈✿✿★,随着AI的快速发展◈✿✿★,不少学者和媒体都对此进行了讨论青年大学习第八季第三期答案◈✿✿★。
1947年出生于英国的辛顿目前在加拿大多伦多大学担任计算机科学名誉教授◈✿✿★。2018年◈✿✿★,因为在深度学习方面的贡献◈✿✿★,他与其他两位学者共同获得图灵奖◈✿✿★。6年后◈✿✿★,他因“通过人工神经网络实现机器学习的基础性发现和发明”而获得诺贝尔物理学奖◈✿✿★。去年2月◈✿✿★,辛顿在英国牛津大学就发表过关于数字智能是否会取代生物智能的演讲◈✿✿★。他当时提出◈✿✿★,如果数字超级智能想要夺取控制权◈✿✿★,“我们很可能无法阻止”◈✿✿★。
根据美国Medium新闻网发表的一篇文章◈✿✿★,生物智能源于生物大脑中复杂的神经元和突触网络◈✿✿★,涵盖了广泛的认知功能◈✿✿★,包括学习◈✿✿★、记忆◈✿✿★、解决问题和情感理解k8com凯发◈✿✿★。这种智能的特点是具有适应性◈✿✿★,能让生物体以复杂的方式与环境互动并适应环境◈✿✿★。人类大脑拥有约860亿个神经元青年大学习第八季第三期答案◈✿✿★,是生物智能的巅峰◈✿✿★,具备抽象推理和创造能力以及自我意识◈✿✿★。而数字智能◈✿✿★,即AI◈✿✿★,是人类设计的产物k8com凯发◈✿✿★,通过算法◈✿✿★、数据和计算模型创建而成◈✿✿★。它旨在模仿甚至超越人类的认知功能◈✿✿★,应用范围从执行简单任务到解决复杂问题◈✿✿★,再到参与决策等◈✿✿★。
深圳市人工智能与机器人研究院具身智能中心主任刘少山告诉《环球时报》记者◈✿✿★,生物智能源于进化◈✿✿★,是经过亿万年生物优化的结果◈✿✿★,特别是人类与动物的大脑演化使其能够通过少样本快速适应复杂情境◈✿✿★,并在不确定环境中做出判断◈✿✿★。不过◈✿✿★,它运算速度较慢◈✿✿★、记忆有限◈✿✿★、容易受生理状态或情绪影响◈✿✿★。相较之下◈✿✿★,数字智能是通过人工设计的计算系统所展现的智能形态◈✿✿★,它以算法驱动◈✿✿★、数据训练为基础青年大学习第八季第三期答案◈✿✿★,通过并行处理实现高速记忆与推理◈✿✿★。数字智能的优势在于计算速度极快◈✿✿★、记忆几乎可无限扩展◈✿✿★、易于复制部署且无疲劳◈✿✿★,但它缺乏意识与自主主观感受◈✿✿★,当前也缺乏成熟的自我进化机制◈✿✿★。
辛顿在2025世界人工智能大会的演讲中提到数字智能和生物智能的相似之处◈✿✿★。他称◈✿✿★,人类和大语言模型理解语言的方式几乎是一样的◈✿✿★,所以人类“有可能就是大语言模型”◈✿✿★,人类也会和大语言模型一样产生“幻觉”◈✿✿★,创造出很多“幻觉语言”◈✿✿★。
美国麻省理工学院网站2023年发表的一篇文章称◈✿✿★,辛顿认为◈✿✿★,AI的强大之处还体现在它能处理海量数据◈✿✿★,且能从数据中发现人类无法察觉的趋势k8com凯发◈✿✿★。这就好比一位接诊过1亿名患者的医生◈✿✿★,会比只接诊过1000名患者的医生有更多发现青年大学习第八季第三期答案◈✿✿★。辛顿说◈✿✿★,像GPT-4这样的大型语言模型采用了类似人脑神经元连接结构的网络◈✿✿★,且已开始具备常识推理能力◈✿✿★。此外◈✿✿★,这些模型能够持续学习◈✿✿★,且知识共享极为便捷◈✿✿★。“只要其中一个模型学到东西◈✿✿★,其他模型也会知晓◈✿✿★。”辛顿说◈✿✿★:“人类却做不到这一点◈✿✿★。如果我学到了大量量子力学知识◈✿✿★,想让你也掌握◈✿✿★,那需要一个漫长而艰难的过程◈✿✿★。”
麻省理工学院网站发表的文章称◈✿✿★,过去辛顿曾长期认为◈✿✿★,计算机模型的能力不及人类大脑◈✿✿★,但现在他将AI视为一种相对紧迫的“生存威胁”◈✿✿★。
在2025世界人工智能大会上◈✿✿★,辛顿将AI的发展比喻为“养虎”◈✿✿★,“如果养老虎当宠物◈✿✿★,它刚出生时很可爱◈✿✿★,但如果养大了◈✿✿★,你得确保它不会把你吃掉”◈✿✿★。他强调◈✿✿★,AI不像老虎那样可以被消灭◈✿✿★,因为这项技术已广泛渗透全球各行各业◈✿✿★。
2023年◈✿✿★,辛顿表示◈✿✿★,最糟糕的情况是人类很可能只是智能进化过程中的一个过渡阶段◈✿✿★:生物智能研发出数字智能◈✿✿★,而数字智能可以吸收人类此前创造的一切◈✿✿★,并开始直接体验世界◈✿✿★。“它们可能会让我们存在一段时间◈✿✿★,以便维持发电站的运转◈✿✿★,但之后或许就不允许我们存在了◈✿✿★。”他补充道◈✿✿★,“我们已经找到了创造不朽生命的方法◈✿✿★。这些数字智能在硬件损坏时不会消亡◈✿✿★。只要能找到另一台可以运行相同指令的硬件◈✿✿★,它们就能‘复活’◈✿✿★。所以◈✿✿★,我们拥有了不朽◈✿✿★,但这并不属于我们”◈✿✿★。
据英国《金融时报》等媒体报道◈✿✿★,辛顿认为◈✿✿★,未来◈✿✿★,AI有10%到20%的可能会毁灭人类◈✿✿★。在他看来◈✿✿★,数字智能存在两个主要风险◈✿✿★:一是坏人会将这项技术用于不良目的◈✿✿★,如大规模虚假信息传播◈✿✿★、网络战和机器人杀手等◈✿✿★;二是这些AI模型也可能以危险的方式进化◈✿✿★,发展出控制欲◈✿✿★。这位被称为“AI教父”的科学家还提醒说◈✿✿★,AI还可能学一些不好的东西◈✿✿★,例如通过阅读小说来学会如何操控人类◈✿✿★,“即便它们不能直接动手◈✿✿★,也肯定能让我们按它们的意愿行事”◈✿✿★。
辛顿是AI发展“末日论者”或者“减速主义者”的代表◈✿✿★。据美国消费者新闻与商业频道网站报道◈✿✿★,对于AI的发展◈✿✿★,科技界存在两个派别◈✿✿★,其中之一被称为“末日论者”或者“减速主义者”◈✿✿★,另一派则被称为“技术乐观主义者”或者叫“有效加速主义者”◈✿✿★。
“末日论者”或者“减速主义者”希望放慢AI的发展速度◈✿✿★,他们最大的担忧是AI的对齐问题◈✿✿★,即当AI超越人类智能◈✿✿★、人类无法控制AI时◈✿✿★,应该如何应对◈✿✿★。2023年◈✿✿★,美国非营利组织未来生命研究所发表公开信◈✿✿★,呼吁立即暂停训练比GPT-4更强大的AI系统至少6个月◈✿✿★。业内专家◈✿✿★、包括马斯克在内的科技大佬等上千人在信上签名◈✿✿★。他们就是“减速主义者”◈✿✿★。有“AI对齐大师”之称的罗素也签署了上述联名信青年大学习第八季第三期答案◈✿✿★。他表示◈✿✿★,AI失控可能导致“文明终结”级别的严重后果◈✿✿★,因此人类要像监管核能一样监管AI◈✿✿★。
“有效加速主义者”则支持AI的全速发展◈✿✿★,该运动的创始人是曾在谷歌等多家美国科技巨头工作过的弗登◈✿✿★,他也创建了自己的科技初创公司◈✿✿★。“有效加速主义者”的代表性人物还包括美国“科技右翼”人士◈✿✿★、风险投资家安德森◈✿✿★,他曾撰写《技术乐观主义者宣言》◈✿✿★。这是一份5000多字的声明◈✿✿★,阐述了科技将如何赋予人类力量并解决人类所有的物质问题◈✿✿★。
《金融时报》称◈✿✿★,对于AI是否最终将超过人类◈✿✿★,部分研究人员认为生成式AI不过是昂贵的统计把戏◈✿✿★,所谓生存威胁纯属“科幻妄想”◈✿✿★。美国著名学者诺姆·乔姆斯基称◈✿✿★,人类拥有与生俱来的“操作系统”理解语言◈✿✿★,而这正是机器所缺乏的◈✿✿★。美国“元”公司的首席AI科学家杨立昆(Yann LeCun)2018年与辛顿一起获得了图灵奖◈✿✿★。他认为当前的AI系统比猫还笨◈✿✿★,相信它们会主动或被动威胁人类“是荒谬的”◈✿✿★。
“这触及了人类对意识◈✿✿★、主体性与进化的理解边界◈✿✿★。”刘少山认为◈✿✿★,关于数字智能是否会取代生物智能的讨论◈✿✿★,表面上是技术路线的分歧◈✿✿★,实质上是对智能本质与生命价值的根本判断差异◈✿✿★。他介绍说◈✿✿★,辛顿的观点建立在一种“功能主义智能观”之上◈✿✿★,即认为只要信息处理系统具备足够的复杂度与组织能力◈✿✿★,就有可能在未来某个点涌现出意识或类似意识的系统状态青年大学习第八季第三期答案◈✿✿★。
与“功能主义智能观”对立的是“存在论智能观”◈✿✿★。刘少山称◈✿✿★,后一种观点认为意识并非信息处理的副产品◈✿✿★,而是一种与生命体验◈✿✿★、情绪◈✿✿★、道德判断密不可分的现象◈✿✿★。仅靠算法堆叠和数据扩展◈✿✿★,无法构建出具备伦理自觉◈✿✿★、自主演化与长期责任感的“智能生命”◈✿✿★。
刘少山说◈✿✿★,这场争论的延伸逻辑在于如果数字智能未来真的演化出自我意识◈✿✿★,那它是否具备继续自我演化的能力?一旦形成自主进化体系◈✿✿★,其目标函数是否仍与人类对齐?是否存在“技术物种”的分叉?这正是所谓“智能分裂点”的伦理恐惧来源◈✿✿★:当智能系统有能力拒绝人类指令时◈✿✿★,它是否仍是“工具”?还是一种新型竞争智能的诞生?
面向未来◈✿✿★,人类应如何平衡生物智能和数字智能?据美国“商业内幕”网站报道◈✿✿★,罗素2019年出版了《人类兼容◈✿✿★:人工智能与控制问题》一书◈✿✿★,探讨了随着机器日益智能化◈✿✿★,人类与机器如何共存的问题◈✿✿★。他认为◈✿✿★,解决之道在于设计不能确定人类偏好的机器◈✿✿★,这样它们就不会将自身目标置于人类目标之上◈✿✿★。辛顿则认为没有一个国家能够独自应对相关风险k8com凯发◈✿✿★,因此呼吁进行国际合作◈✿✿★。
赛迪研究院未来产业研究中心人工智能研究室主任钟新龙告诉《环球时报》记者◈✿✿★,对AI发展方向的研判◈✿✿★,首先必须建立在对“智能”本身审慎◈✿✿★、开放的认知之上◈✿✿★。“智能”并非一个已经形成共识的纯粹技术概念◈✿✿★,其本质至今仍是哲学◈✿✿★、脑科学与计算机科学共同探索的领域◈✿✿★。将生物智能与数字智能简单对立◈✿✿★,并由此推演“取代”或“被取代”的终局◈✿✿★,可能忽略了智能形态的多样性与复杂性◈✿✿★。钟新龙表示◈✿✿★,必须清醒地认识到当前公众和部分讨论中对“硅基智能”的认知◈✿✿★,在一定程度上受到了科幻作品的影响◈✿✿★,陷入“贩卖焦虑”的陷阱◈✿✿★,将其想象为一个无所不能◈✿✿★、全知全能的抽象存在◈✿✿★。
钟新龙认为◈✿✿★,在AI发展问题上必须坚持统筹发展和安全的战略思想◈✿✿★,以动态平衡的智慧驾驭机遇与挑战◈✿✿★。缺乏远见的“无忧患意识”和脱离实际的“过度忧患意识”都是需要警惕的倾向◈✿✿★。当前◈✿✿★,我国正处在构建新发展格局◈✿✿★、推动高质量发展的关键时期◈✿✿★,深入推行“AI+”行动◈✿✿★,以AI赋能新型工业化◈✿✿★、加快形成新质生产力◈✿✿★,是关系到国家长远竞争力的重大战略◈✿✿★。如果因为对远期尚不清晰的理论风险过度忧虑◈✿✿★,而采取过于超前的限制性措施◈✿✿★,很可能延误甚至错失宝贵的发展窗口期◈✿✿★,对我国现代化产业体系的构建造成迟滞◈✿✿★。因此◈✿✿★,在AI治理格局的构建中◈✿✿★,必须秉持“包容审慎”的原则◈✿✿★,为技术创新和产业应用保留充足空间◈✿✿★。
美国学者萨拉夫在其博士论文中提到◈✿✿★,生物智能可以和AI相容共生◈✿✿★,发展“共生智能”◈✿✿★。这位学者提到◈✿✿★,将生物智能融入我们的系统◈✿✿★,或许会成为彻底改变AI格局的关键突破◈✿✿★。试想这样一个未来◈✿✿★:这种融合催生出的AI工具极为先进◈✿✿★,不仅能加深我们对机器学习的理解◈✿✿★,还能让我们对自身生物学有更深刻的洞察◈✿✿★。通过输入生物信号并利用细胞和神经元的智能◈✿✿★,我们可以创造下一代AI◈✿✿★。这些系统不仅更智能◈✿✿★,还能与生物体的自然智能更和谐地融合◈✿✿★。
Medium新闻网发表的文章称◈✿✿★,当我们探索智能与创造力的复杂领域时◈✿✿★,很明显生物智能和数字智能在创造力方面都具有独特优势◈✿✿★。人类创造力充满深度◈✿✿★、情感和直觉◈✿✿★,而数字智能则具备精确性◈✿✿★、速度和处理海量数据集的能力◈✿✿★。未来可能在于利用这些互补的优势◈✿✿★,培育一个协作的生态系统◈✿✿★。在这个系统中◈✿✿★,人类和AI的创造力不仅共存◈✿✿★,还能蓬勃发展◈✿✿★,不断突破创新和艺术表达的界限◈✿✿★。健康新知◈✿✿★,凯发一触即发(中国区)官方网站◈✿✿★,凯发天生赢家一触即发首页凯发(中国)·一触即发◈✿✿★,