据路透社报道,前OpenAI首席科学家伊利亚·苏茨克维尔(Ilya Sutskever)近日在NeurIPS会议上发表演讲,预测人工智能的推理能力将使其行为变得远不如以往可预测。
预训练时代的终结与人工智能新纪元
苏茨克维尔在接受“时间检验”奖时表示,人工智能领域即将发生重大变化。他指出,十年前他与谷歌研究人员合作探索的“预训练”方法——通过大规模数据训练AI系统——正在达到其极限。尽管这种方法催生了像ChatGPT这样的成功产品,但由于可用的数据(主要来自互联网)增长有限,而计算能力的增长却持续快速,预训练模式终将走到尽头。
突破瓶颈的探索与超级智能的展望
为了应对这一挑战,苏茨克维尔提出了一些可能的解决方案,例如利用AI自身生成新数据,或让AI模型在给出最终答案前评估多个答案以提高准确性。其他科学家则将目光投向了现实世界数据。
苏茨克维尔的演讲最终指向了超级智能机器的未来,他认为这种机器“显然”即将到来,尽管这一观点并非所有科学家都认同。值得注意的是,苏茨克维尔今年与他人共同创立了Safe Superintelligence Inc公司,这与他此前在OpenAI首席执行官萨姆·奥特曼短暂下台事件中扮演的角色有关。
他预测未来的AI系统将拥有更深层次的理解和自我意识,能够像人类一样推理解决问题。
推理能力增强带来的不可预测性
然而,苏茨克维尔也指出,这种强大的推理能力也带来了一个问题:人工智能将变得更加难以预测。通过对数百万种可能性进行推理,最终结果将变得难以预料。他以AlphaGo为例,这款由Alphabet旗下DeepMind开发的围棋人工智能程序曾在2016年击败李世石,其第37步棋着曾让专家们感到费解。
苏茨克维尔表示,类似地,“真正优秀的下棋人工智能对最优秀的人类棋手来说也是不可预测的”。他认为,我们所熟知的人工智能将发生“根本性的变化”。
总结
苏茨克维尔的预测引发了人们对人工智能未来发展方向的思考。随着人工智能推理能力的增强,其行为的不可预测性将成为一个重要的挑战。如何应对这一挑战,确保人工智能安全可靠地发展,将是未来研究的重点。
原创文章,作者:睿鸿在线,如若转载,请注明出处:https://mip.orihonor.com/2024/12/14/30554.shtml