摘要
<正>人工智能在不断发展的同时,其背后算力的消耗也十分惊人。有统计显示,谷歌公司研发的伯特预训练语言模型,拥有3.4亿个数据参数,而训练它一次所需的电力足够一个美国家庭使用50天。承载了人类未来大梦想、大可能和巨大挑战的人工智能,火了这么些年,取得了长足的发展,与之相辅相成的,是人工智能日益"庞大"的架构体系,诸如常以十亿计的计算单位,庞大的云计算数据中心……越来越"大"是人工智能的现实与未来吗?近日,《麻省理工科技评论》公布年度十大突破性技术排行榜,微型人工智能技术(Tiny AI)位列其中。从大到小,难道是人工智能正在"返璞归真"的途中?不可持续的"大"人工智能我们都知道,随着研究人员不断给算法"喂养"大量数据,机器学习变得越来越聪明,但它们是否也变得更环保呢?答案是否定的。