专栏名称: 人工智能学家
致力成为权威的人工智能科技媒体和前沿科技研究机构
今天看啥  ›  专栏  ›  人工智能学家

放弃Scaling Law!中科院、清北提出内生复杂性类脑网络:让AI像人脑一样“小而强”

人工智能学家  · 公众号  · AI  · 2024-08-27 17:26
    

文章预览

想象一下, 如果人工智能(AI)模型能像人脑一样,规模小,耗能少,但具备同样复杂功能 ,那现阶段 AI 模型训练的耗能大、难理解的瓶颈是不是就能解决了? 中国科学院自动化研究所李国齐、徐波研究员团队联合清华大学、北京大学等团队便在这一方面取得了突破—— 他们借鉴大脑神经元复杂动力学特性,提出了 “基于内生复杂性”的类脑神经元模型构建方法 , 而非基于 Scaling Law 去构建更大、更深和更宽的神经网络。 这种方法不仅改善了传统模型通过向外拓展规模带来的计算资源消耗问题,还保持了性能,内存使用量减少了 4 倍,处理速度提高了 1 倍 。 研究论文以“ Network model with internal complexity bridges artificial intelligence and neuroscience ”为题,发表在权威期刊 Nature Computational Science 上。 共同通讯作者为 中国科学院自动化所李国齐研究员 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览