您当前的位置:首页 > 分析
OpenAI称超级人工智能可能在这个十年出现,或导致人类灭绝:OpenAI周三表示,该公司计划投入大量资源,创建一个新的研究团队,以确保其人工智能对人类来说是安全的,并最终使用人工智能来监督自身。OpenAI联合创始人IlyaSutskever和对齐团队负责人JanLeike在一篇博客文章中写道

时间:2023-07-06 08:30:10    来源:和讯


(资料图片)

OpenAI称超级人工智能可能在这个十年出现,或导致人类灭绝:OpenAI周三表示,该公司计划投入大量资源,创建一个新的研究团队,以确保其人工智能对人类来说是安全的,并最终使用人工智能来监督自身。OpenAI联合创始人IlyaSutskever和对齐团队负责人JanLeike在一篇博客文章中写道:“超级智能的巨大力量可能……导致人类被剥夺权力,甚至人类灭绝。目前,我们还没有一个解决方案来操纵或控制一个潜在的超智能人工智能,并防止它失控。”他们预测,超智能人工智能——比人类更聪明的系统——可能在这个十年到来。人类将需要比目前更好的技术来控制超智能人工智能,因此需要在所谓的“对齐研究”(alignmentresearch)方面取得突破,该研究的重点是确保人工智能对人类有益。OpenAI将在未来四年中将其获得的计算能力的20%用于解决这个问题。

标签:

广告

X 关闭

广告

X 关闭