许多人工智能工具现在都是公开可用的,从谷歌巴德和必应人工智能让这一切开始运转的是OpenAIChatGPT。但是这些人工智能模型到底能做什么呢?我们很快就会找到答案,因为黑客们在Defcon 31上对人工智能领域的大牌进行了测试。
黑客惯例是呼吁(在新窗口中打开)在今年的会议上,与会者将“发现由Anthropic、Google、hugs Face、Nvidia、OpenAI和Stability构建的大型语言模型中的漏洞”。
防御31(在新窗口中打开)定于8月10日至13日在拉斯维加斯举行。人工智能的工作是由人工智能村与人性化智能(在新窗口中打开),SeedAI(在新窗口中打开),和AI漏洞数据库(在新窗口中打开)。的白宫科学、技术和政策办公室(在新窗口中打开)美国国家科学基金会的计算机和信息科学与工程理事会以及国会人工智能核心小组也参与其中。
“这是第一次有人尝试超过几百名专家来评估这些模型,”Defcon组织者表示。“知道如何最好地利用这些模型及其局限性的人越多越好。这也是新社区学习技能的机会人工智能通过探索它的怪癖和局限性。”
人工智能村的组织者将提供笔记本电脑,每个模型的访问权限,并为能够最彻底地测试每个模型的人提供奖品。组织者说:“我们将提供一个夺旗式的积分系统,以促进测试更广泛的危害。”“得分最高的人将获得一个高端的英伟达GPU。”
参与者将包括专家研究人员以及“来自被忽视的机构和社区的学生”。所有人都应该遵守黑客希波克拉底誓言。
白宫表示,通过与一个非政府实体合作,它希望有公正、独立的专家来确定这些模型是否符合该报告的标准人工智能权利法案(在新窗口中打开)。科学、技术和政策办公室撰写了人权法案,并正在监督防御行动。
白宫表示:“这项独立的工作将为研究人员和公众提供有关这些模型影响的关键信息,并将使人工智能公司和开发人员能够采取措施解决这些模型中发现的问题。说(在新窗口中打开)。
人权法案确定了政府所说的“应该指导自动化系统的设计、使用和部署,以保护人工智能时代的美国公众”的五项原则。它认为,当涉及到人工智能时,所有人都有以下权利:
应该保护您免受不安全或无效系统的侵害。
你不应该面对算法的歧视,系统应该以公平的方式使用和设计。
应该通过内置的保护措施保护您免受滥用数据的侵害,并且您应该对如何使用有关您的数据拥有代理。
您应该知道正在使用的自动化系统,并了解它如何以及为什么会产生影响您的结果。
在适当的情况下,你应该能够选择退出,并有机会接触到一个能迅速考虑和纠正你遇到的问题的人。
Defcon事件旨在加速发现违反这些原则的问题。通常情况下,像谷歌和OpenAI这样的公司会闭门测试自己的技术通过他们自己的漏洞赏金计划Defcon的组织者说,这就产生了“安全专业人士和公众必须应对的问题”。
Defcon表示:“我们喜欢新生成大型语言模型(llm)带来的创造力爆发。”“然而,我们才刚刚开始了解大规模自动化这些新技术所带来的嵌入式和紧急风险。”
白宫今天还宣布,美国国家科学基金会(National Science Foundation)已拨款1.4亿美元,用于创建七个新的国家人工智能研究所,而美国管理和预算办公室(Office of Management and Budget)将于今年夏天发布政府使用人工智能系统的政策草案,征求公众意见。
副总统卡玛拉·哈里斯还会见了Alphabet、Anthropic、微软和OpenAI的首席执行官,讨论了负责任、值得信赖和合乎道德的人工智能系统的发展。