不清楚人工智能将匹配和超越人类智慧的一天,但ChatGPT创造者OpenAI已经开始研究如何防止一个所谓的“有超常智慧的人工智能”流氓并可能杀死我们所有人。
听起来像一个威胁科幻电影情节。但OpenAI今天警告的风险有超常智慧的AI系统或计算机,将明显比人类更聪明。
“超智将是人类有史以来发明的最有效的技术,可以帮助我们解决许多世界上最重要的问题,“该公司中写道博客(在一个新窗口打开)。“但超智的巨大力量也可以是非常危险的,并可能导致人类的无助感,甚至人类的灭绝。”
OpenAI预测,有超常智慧的AI系统将出现在“这十年。“这是一个相当大胆的预测,因为公司的ChatGPT应用并不被认为是一个人工总体智能(美国国际集团人类思想的)能力。
相反,ChatGPT函数作为一个大型语言模型类似于自动完成,可以重新创建类似人类的反应,但是没有完全理解这句话背后的含义。因此,它有时可以弥补答案显然是错误的或不理解基本逻辑(在一个新窗口打开)。所以它看起来很奇怪,OpenAI已经预测有超常智慧的AI的到来。然而,旧金山实验室要做好准备。
“目前,我们没有一个解决方案,指导或控制潜在有超常智慧的AI和防止流氓,”该公司表示。“我们当前的技术将人工智能,如强化学习从人类的反馈(在一个新窗口打开)监督AI,依靠人类的能力。但是人类无法可靠地监督AI系统比我们聪明得多。”
实际上,有超常智慧的AI会反应并发出命令比任何人更快,也许不可能在实时控制。这意味着OpenAI需要“新的科学和技术突破”控制假设的人工智能系统。为此,公司创建一个新的团队专注于“superalignment研究和贡献OpenAI 20%的计算资源的努力。
团队的当前方法将专注于创建一个“约人类自动对齐研究员,本质上是一个人工智能程序设计具有讽刺意味的是——监督未来有超常智慧的电脑。“我们可以使用大量的计算我们的努力,规模和迭代调整超智,”该公司表示。
推特(在一个新窗口打开)
OpenAI目标是“解决的核心技术挑战超智对齐”在接下来的四年。“虽然这是一个非常雄心勃勃的目标,我们不能保证成功,我们很乐观,专注,可以共同努力解决这个问题,”该公司表示。
其研究也将与公众共享,以便其他人工智能公司可能使用它。