AI预测为何越来越难?三大未解之谜震撼业界:技术会停滞吗?公众信任危机如何破局?监管乱局能否终结?

为何我们仍要预测2026年的技术趋势?本文原载于我们的每周AI通讯《算法》。若想第一时间获取此类内容,请在此订阅。
有时AI似乎是个小众话题,但每逢假日聚会,我总能听到各年龄段的亲戚谈论聊天机器人引发的心理问题、将电价上涨归咎于数据中心,并质疑是否该让孩子无限制接触AI——换言之,AI已无处不在,而人们正为此感到不安。
这些对话总会转向同一个问题:AI现在已产生诸多连锁反应,若技术继续进步,未来会怎样?这时他们通常会望向我,期待听到末日预言或希望曙光。
我恐怕令人失望了——只因AI预测正变得越来越困难。
尽管如此,我必须说《麻省理工科技评论》在解读AI趋势方面有着相当出色的记录。我们刚发布了一份犀利的2026年预测清单(其中包含我对AI法律纠纷的见解),而去年的所有预测均已应验。但每个假期季,判断AI的影响都愈发艰难,主要源于三大未解之谜:
其一,我们不知道大语言模型短期内是否会持续进步。 这项技术正是当前所有AI兴奋与焦虑的根源,从AI伴侣到客服代理皆由其驱动。若其发展停滞,将产生巨大影响——事实上,我们在去年12月已用整组报道探讨了”后AI炒作时代”的可能面貌。
其二,AI在公众中的口碑极差。 仅举一例:近一年前,OpenAI的萨姆·奥尔特曼曾与特朗普总统并肩宣布一项5000亿美元计划,拟在全美建设数据中心以训练更庞大的AI模型。二人要么未料到、要么不在乎许多美国人会坚决反对在社区建设此类设施。一年后的今天,科技巨头仍在为赢得公众支持并继续建设而艰难奋战。他们能成功吗?
其三,立法者对民众焦虑的回应混乱不堪。 特朗普通过将AI监管权收归联邦(而非各州)取悦了科技巨头CEO,相关企业正试图将此政策法典化。但希望保护儿童免受聊天机器人影响的群体极为复杂——从加州进步派议员到日益倾向特朗普的联邦贸易委员会,各方动机与手段迥异。他们能否搁置分歧,真正约束AI公司?
若阴郁的节日餐桌对话进行至此,总会有人问:难道AI没被用于造福人类吗?比如促进健康、推动科学发现、助力理解气候变化?
某种程度上确实如此。机器学习这种更早的AI形式长期应用于各类科研。其中深度学习技术曾助力诺贝尔奖获奖工具AlphaFold实现蛋白质预测,彻底改变了生物学;图像识别模型在癌细胞检测方面也日益精准。
但基于新型大语言模型的聊天机器人表现则较为有限。 像ChatGPT这样的技术擅长分析海量研究并总结已知成果,然而某些宣称此类AI取得突破(如解决数学难题)的高调报道最终被证实为虚假。它们能辅助医生诊断,也可能诱使人们不经咨询就自行诊断健康问题,有时甚至导致灾难性后果。
待到明年此时,我们或许能更好地回答家人的疑问,同时也必将面临全新的问题。在此期间,请务必阅读我们团队对今年AI趋势的完整预测报告。
—
延伸思考
1. 当AI发展速度可能放缓与公众信任危机形成双重压力时,科技企业该如何构建真正可持续的技术推广路径?
2. 在联邦与地方监管角力、不同政治阵营诉求交织的背景下,怎样的AI治理框架才能兼顾创新激励与社会风险防控?
阅读 Technology Review 的原文,点击链接。