谷歌已经构建了一套人工智能系统,能够学习并自主控制视频游戏,其不需要人指挥,接收简单指令后就可自主操作游戏。
谷歌在周三介绍了其机器学习技术的最新进展,称此为构建自主理解并完成操作的人工智能系统迈出了重要的第一步。这一项目是伦敦人工智能创业公司DeepMind AI的研究成果,包含了来自Atari 2600游戏机上的49款游戏。DeepMind AI在去年被谷歌收购。
谷歌人工智能系统在多个方面取得了突破,是一项了不起的成就,但最令人印象深刻的还是其不但在多款游戏中达到了人类玩家相当的智力水平,还超过了专业级玩家的最高得分。谷歌系统学习了49款游戏,在29款游戏中的得分超过了游戏行家,在43款游戏中的得分超过了基于算法的计算机。
谷歌人工智能系统将具备良好理解能力的人工智能技术与一套存储和奖励系统整合在一起,这一想法受到了人类在人脑和动物脑中发现成果的启发。借助这一整合,谷歌团队能够创建一套系统,让其从环境中学习、参照以前的处理方式、调整行为。与此前的人工智能系统相比,这是一次巨大飞跃。微软、IBM、Clarifai、MetaMind开发的主流图像识别系统一般需要人类监督,对图片进行注释,才能学习如何识别。DeepMind AI联合创始人、谷歌工程副总裁丹米斯·哈萨比斯(Demis Hassabis)表示,随着谷歌开发更多先进技术,该公司将继续从生物中提取参考线索,扩充长期存储和战略规划系统。