主要观点总结
本文介绍了清华、中国人民大学的研究团队关于人工智能(AI)与通用人工智能(AGI)的最新研究。他们提出了一个名为“生存游戏”的框架来评估智能的高低,并指出AI在复杂任务中的局限性。文章还讨论了AI的智能水平与人类智能的差距,以及实现AGI所面临的挑战,包括硬件技术的限制和AI的“浅层学习”问题。此外,文章还涉及了智能爆炸的概念和可能的风险,以及引发智能爆炸的不同姿势。
关键观点总结
关键观点1: 清华、中国人民大学的研究团队通过“生存游戏”框架评估智能
生存游戏是一个评估智能的框架,通过试错过程中失败次数的期望值和方差来衡量智能的高低。简单任务中AI表现达到“自主级”,但在复杂任务中大多停留在“有限级”。
关键观点2: AI在复杂任务中面临局限性
当前最领先的大模型在复杂任务中表现不佳,大多处于“有限级”,依赖人类监督,无法独立应对复杂任务。
关键观点3: AI与人类智能的差距
研究人员指出,AI在理解任务底层机制方面存在缺陷,难以达到人类智能的“自主级”。要实现AGI,需要超越单纯的规模scaling,设计出能理解任务本质的系统。
关键观点4: 实现AGI的挑战
实现AGI需要惊人的10²⁶个参数,这一规模相当于全人类大脑神经元总数的10⁵倍。当前硬件技术需要70年的积累才能支撑这一规模。此外,智能爆炸的概念也引发了对AI未来发展的担忧。
关键观点5: 智能爆炸的概念和可能的风险
智能爆炸是AI自我增强的循环,可能导致AI的智力远远超过人类。这种发展可能带来不可预测的风险,包括人类无法控制AI的发展速度,甚至威胁人类的生存。
文章预览
来源:新智元 本文 约4400字 ,建议阅读 8 分钟 清华、中国人民大学的研究团队计算得出:人类距离AGI还有70年! [ 导读 ] AGI明年降临?清华人大最新研究给狂热的AI世界泼了一盆冷水:人类距离真正的AGI,还有整整70年!若要实现「自主级智能,需要惊人的10²⁶参数,所需GPU总价竟是苹果市值的4×10⁷倍! AGI,就在今年;诺奖级AI,将2026年-2027年诞生。 不论是奥特曼,还是Anthropic首席执行官Dario Amodei,AI界科技大佬纷纷认为「超级智能」近在眼前。 甚至,几天前,纽约时报的一篇文章称,美国政府知道AGI要来,并有了相应的想法和对策。 AGI真的就要来了吗? 最近,来自清华、中国人民大学的研究团队最新研究,计算得出: 人类距离AGI还有70年! 他们提出了一个全新的框架「生存游戏」(Survival Game),以评估智能的高低。 在这个框架中,智能不
………………………………