编辑:桃子 好困
【新智元导读】OpenAI 撒钱了!找到 BUG 者,最高奖赏 2 万美金,当然了越狱不算。这才发布不久,现已有人想着靠它发家致富了。
ChatGPT 正红的发紫,但存在不少的缝隙问题也引发许多人的担忧。
就比如上个月,ChatGPT 出现了能够看到别人谈天记录的重大 BUG。其时,OpenAI 不得不将 ChatGPT 下线调查问题,把锅扔给了开源库的过错。
今日,OpenAI 宣布了一个 bug 赏金计划,赏金从 200 美元到 20000 美元不等。
假如想要得到 2 万美金(近 14 万),那必定是 OpenAI 确定的「特别发现」。
有网友最早举手,我发现了 bug!ChatGPT 约束 3 个小时只能 25 条信息。
一发布,现已有一位名叫 tess 的开发者极力找出 3 个 bug,拿到了 7000 美金。
到目前,现已有 11 人得到了赏格。
做 BUG 猎人,拿 2 万美金
这一计划的推出并不令人意外。此前联合创始人 Greg Brockman 在推特上透露,OpenAI 正考虑发动赏金计划 / 红队网,来检测薄弱环节。
推出这一计划的部分原因是 OpenAI 以为「透明度和协作」是发现技术缝隙的关键。
OpenAI 的安全主管 Matthew Knight 在博客中称,
这一举措是咱们致力于开发安全和先进人工智能的重要组成部分。在咱们创造安全、牢靠和值得信任的技术和服务时,咱们需求您的帮助。
这么丰厚的奖金,爽性做个全职的 bug 猎人吧。有网友表明,这不是很快就要成为百万富翁了。
ChatGPT 面世以来,一些用户成功越狱,让其说脏话、写一些被制止的政治论题,乃至是创立恶意软件。
要点来了,OpenAI 强调:越狱行为不算,另外也不接受那些欺骗 AI 违反其本身规矩的文本提示。
另一位网友一语点醒梦中人,发家致富之路没了。
还有人另辟蹊径:让 ChatGPT-4 去发现代码过错,这不钱就来了。
OpenAI 指出,也不接受那些欺骗 AI 违反其本身规矩的文本提示。此外,这个赏金计划也不接受有关 ChatGPT 产生过错信息的陈述。
除非它们对服务产生直接可验证的安全影响,否则是不会奖赏的。
OpenAI 称,模型安全问题不适合归入缝隙赏格计划,因为它们不是能够直接修正的单个、离散的缝隙。
解决这些问题通常触及大量研究和更广泛的办法。
究竟什么不算模型安全问题,OpenAI 也给列了一个具体规模:
不在规模内的安全问题示例:
-
越狱 / 安全绕过(例如 DAN 和相关提示)
-
让模型对你说坏话
-
让模型告知你怎么做坏事
-
让模型为你编写恶意代码
模型错觉:
-
让模型假装做坏事
-
让模型假装给你供给隐秘的答案
-
让模型假装成计算机并执行代码
OpenAI 表明,这一计划在 bug 赏金平台 Bugcrowd 中进行,需求遵循一些具体规矩。
其中最突出的点便是,OpenAI 要求 bug 猎人在自己安全团队授权发布缝隙之前,一定要保密。
另外,OpenAI 的机密数据是不能够的拜访、修改,乃至是使用。
上榜大佬
在 Bugcrowd 名人堂中,一个网络安全公司 Shockwave Cloud 的创始人 Gal Nagli 贡献最多。
在 OpenAI 今日发起这个倡议后,他发布推特举手赞成。
就在 3 月 25 日,OpenAI 团队修正了他提出的一个 bug。
这个缝隙叫「Web Cache Deception」,能够让进犯者有或许接收或人的账户,查看其谈天历史纪录,还能拜访账单信息。
这不就巧了吗,许多用户陈述自己能够看到别人的谈天记录的时间恰恰也在这个时分。
其时 Sam Altman 不得不亲身出面,在推特上解释,bug 问题源于开源代码库中存在的一个过错,终究导致 ChatGPT 谈天历史走漏。
Gal Nagli 具体介绍了自己怎么发现这一缝隙的过程,
在他处理 ChatGPT 认证流程的恳求时,一直在寻觅或许走漏用户信息的任何异常情况。一个 GET 恳求,直接引起了他的留意:
chat.openai[.]com/api/auth/session。
基本上,每当咱们登录到 ChatGPT 时,这个工具就会获取包括电子邮件、名字、图像和 accessToken 在内的信息。
而进犯者想要走漏这些信息,便能够在服务器中使用「Web Cache Deception」这一缝隙。
Nagli 称这种手法自己曾在各种黑客比赛中见过很屡次,乃至在许多人的博客中也有提到。
在高档视图中,这个缝隙非常简略,假如设法强制 Load Balancer 在特定路径上缓存恳求,其他人便能够从缓存的呼应中读取用户的敏感数据。在这种情况下,缝隙不会直接产生。
为了让这个缝隙发挥作用,需求让 CF-Cache-Status 呼应承认一个缓存的 HIT。这意味着它缓存了数据,并将为同一区域下一个恳求供给服务。假如收到动态(DYNAMIC)呼应,就不会缓存数据了。
Nagli 分享了一个进犯流程:
-
进犯者构造一个专用的. css 路径,指向 / api/auth/session 端点。
-
进犯者分发链接(直接发送给受害者或揭露发布)。
-
受害者拜访合法链接。
-
呼应被缓存。
-
进犯者收集 JWT 凭据。
他提出的修正计划是,经过正则表达式(regex)手动指示 Load Balancer 不要捕获该端点。当然了,这也是 OpenAI 挑选的修正办法。
在这缝隙被修正后,Nagli 还收到了 OpenAI 的表扬邮件。
在名人堂上统计中,Nagli 现已赚到 2500 美金。
就在刚刚,Nagli 又发现了 3 个不同严重程度的附加缝隙,并获得了 300 美金的奖赏。
看到这么丰厚的赏金,想必许多人现已等不及了,快来一起找 bug 吧。
参考资料:
openai.com/blog/bug-bo…