前OpenAI首席科学家伊利亚·苏茨克弗(Ilya Sutskever)在温哥华NeurIPS大会上发表演讲,预测人工智能将迎来重大变革,其推理能力将使其行为远不如以往可预测。
预训练时代终结
苏茨克弗在接受“时间检验奖”时表示,他与谷歌科学家Oriol Vinyals和Quoc Le在2014年发表的论文中提出的通过扩大数据规模来“预训练”AI系统的想法,正在接近其极限。虽然扩大数据和计算能力带来了像ChatGPT这样的成功应用,但他断言:“我们所知的预训练无疑将终结。虽然计算能力正在增长,但数据并没有增长,因为我们只有一个互联网。”
突破瓶颈的新方法
面对这一难题,苏茨克弗提出了一些可能的解决方案,例如利用技术本身生成新的数据,或让AI模型评估多个答案后再选择最佳答案以提高准确性。其他科学家则将目光投向了现实世界的数据。
超级智能和不可预测性
苏茨克弗的演讲最终指向了未来超级智能机器的预测,他认为这种机器的出现是“显而易见”的,尽管这一观点存在争议。他今年与人共同创立了Safe Superintelligence Inc.,这与他此前在Sam Altman被短暂解雇OpenAI事件中的角色有关,他表示自己几天后便后悔了。
他预测,未来,长期研发的AI智能体将能够实现更深层次的理解和自我意识,并像人类一样进行推理。然而,他同时指出:“它推理得越多,就越难以预测。”
推理带来的不可预测性
苏茨克弗以AlphaGo为例,解释了推理带来的不可预测性。AlphaGo在2016年与李世石的比赛中,其第37步出人意料,最终战胜了李世石。同样,他指出,“最好的国际象棋AI对最优秀的人类国际象棋选手来说也是不可预测的”。
他总结道,我们所知的人工智能将“发生根本性的改变”。
总结
苏茨克弗的预测引发了业界对人工智能未来发展方向的思考。数据增长瓶颈、超级智能的出现以及由此带来的不可预测性,都将是未来人工智能研究面临的重大挑战。他的观点强调了对人工智能安全性和可控性的关注,以及对人工智能发展可能带来的潜在风险的认识。
原创文章,作者:睿鸿在线,如若转载,请注明出处:https://mip.orihonor.com/2024/12/14/30562.shtml