OpenAI 组建安全 AGI 新团队!应对AI“潘多拉魔盒”

这篇具有很好参考价值的文章主要介绍了OpenAI 组建安全 AGI 新团队!应对AI“潘多拉魔盒”。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

OpenAI 组建安全 AGI 新团队!应对AI“潘多拉魔盒”,安全,agi,人工智能

 夕小瑶科技说 原创
 作者 | 小戏

一旦谈及未来 AI,除了天马行空的科幻畅想,不可避免的也有未来 AI 时代的末日预言。从 AI 武器化到 AI 欺骗,从邪恶 AI 到 AI 掌权,人工智能,尤其是通用人工智能的风险始终都清清楚楚的写在人们的担忧之中。

OpenAI 组建安全 AGI 新团队!应对AI“潘多拉魔盒”,安全,agi,人工智能

而伴随着以 GPT-4 为代表的大模型的出现,人类如何掌控这些拥有无法解释以致使用“涌现”而命名的神奇能力的大模型成为了一个巨大的灰犀牛问题,AI 的安全风险不会瞬间爆发,但是却不紧不慢的向我们奔袭而来。

而在昨天,OpenAI 在其安全与对齐社区中发布文章,宣布组建名为“Preparedness”的新团队,这个以“准备”甚至带着“战备”意味的词似乎表明 OpenAI 已经在试图为未来的 AI 风险付出认真的行动

OpenAI 组建安全 AGI 新团队!应对AI“潘多拉魔盒”,安全,agi,人工智能

根据博客,OpenAI 表示自己已经开始积极的开展工作以应对 AI 相关的全方位的安全风险,这些风险不仅仅包含现在以 GPT 为基础架构的大模型潜在的风险,也包含未来可能的“超级人工智能”所蕴含的风险。具体而言,Preparedness 团队将评估与解决:

  1. 在现在以及未来,前沿的 AI 系统被滥用,它们会有多危险?

  2. 如何构建一个强大的框架来监控、评估、预测与防御前沿 AI 系统可能的风险?

  3. 如果前沿的 AI 系统被盗用,恶意行为者可能会如何使用它们?

在这些大目标的基础上,这个由 MIT 教授 Aleksander Madry 领导的新团队将主要防范包括网络安全风险、化学风险、生物风险、辐射风险、核风险以及政治风险在内的多种灾难性风险

此外,Preparedness 团队还将开发与维护一个风险指引发展策略(Risk-Informed Development Policy ,RDP),RDP 将详细阐释 OpenAI 将如何对自己开发的大模型进行风险监控,如何对大模型风险管理搭建治理体系与治理结构,以及如何对已发生风险进行补救。

OpenAI 组建安全 AGI 新团队!应对AI“潘多拉魔盒”,安全,agi,人工智能

▲image.png

与此同时,OpenAI 也发布了一个 AI 安全风险防范挑战赛用以预防 AI 被灾难性的滥用,挑战赛的 TOP 10 将获得总计 25000 美元的 API 积分。

挑战赛地址:
https://openai.com/form/preparedness-challenge

最后,组建新团队当然还有一步就是广发英雄帖:

OpenAI 组建安全 AGI 新团队!应对AI“潘多拉魔盒”,安全,agi,人工智能

▲image.png

目前在招的岗位有安全风险研究员以及研究工程师,怀揣拯救世界梦想的少年有没有去挑战 AI 这条恶龙的兴趣呢?

OpenAI 组建安全 AGI 新团队!应对AI“潘多拉魔盒”,安全,agi,人工智能文章来源地址https://www.toymoban.com/news/detail-723583.html

到了这里,关于OpenAI 组建安全 AGI 新团队!应对AI“潘多拉魔盒”的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • OpenAI发布AGI安全风险框架!董事会可随时叫停GPT-5等模型发布,奥特曼也得乖乖听话

    OpenAI 再次强调模型安全性!AGI 安全团队 Preparedness 发布模型安全评估与监控框架! 这两天关注 AI 圈新闻的小伙伴们可能也有发现, 近期的 OpenAI 可谓进行了一系列动作反复强调模型的“安全性” 。 前有 OpenAI 安全系统(Safety Systems)负责人长文梳理针对 LLM 的对抗攻击类型

    2024年02月03日
    浏览(79)
  • 谷歌DeepMind团队深夜发布新AI开源模型Gemma;技术大神Karpathy离职OpenAI后发布教学视频

    🦉 AI新闻 🚀 谷歌DeepMind团队深夜发布新AI开源模型Gemma 摘要 :谷歌DeepMind团队于今日发布了一款名为Gemma的新型AI模型,该模型启发自Gemini,提供两个版本:Gemma 2B和Gemma 7B。这款模型支持Keras 3.0和PyTorch等工具进行微调,可在性能较低的设备上运行,且性能超越竞品Meta Llama

    2024年03月15日
    浏览(59)
  • 智能安全的挑战:AI如何应对网络安全威胁

    网络安全是当今世界面临的重大挑战之一。随着互联网的普及和数字化进程的加速,网络安全问题日益严重。网络安全威胁包括但不限于:网络攻击、网络滥用、网络盗用、网络欺诈等。这些威胁对个人、企业和国家安全造成了严重影响。 随着人工智能(AI)技术的发展,AI已经

    2024年02月21日
    浏览(43)
  • AI诈骗的防范与应对:维护数字安全的责任

    近年来,人工智能生成内容(AIGC)技术在各个领域都取得了显著的进展,为我们带来了更多的便捷和创新。然而,与此同时,这项技术也被不法分子滥用,用于实施各种形式的AI诈骗。这种威胁需要我们认真对待,并采取适当的措施来应对。本文将探讨AI诈骗的风险,以及如

    2024年01月22日
    浏览(39)
  • OpenAI CEO称“AGI时代”即将来临,下一个风口或为能源领域

    原创 | 文 BFT机器人  在最近的达沃斯论坛上,Sam Altman以其深邃的见解和前瞻性的思考,再次成为了全场关注的焦点。他以一场激情四溢的演讲,深入剖析了人工智能技术的未来发展趋势,以及它可能对社会和工作领域产生的深远影响。 Altman明确指出,当前的GPT-4模型所展现

    2024年01月20日
    浏览(55)
  • 浅谈Mysql读写分离的坑以及应对的方案 | 京东云技术团队

    为什么我们要进行读写分离?个人觉得还是业务发展到一定的规模,驱动技术架构的改革,读写分离可以减轻单台服务器的压力,将读请求和写请求分流到不同的服务器,分摊单台服务的负载,提高可用性,提高读请求的性能。 上面这个图是一个基础的Mysql的主从架构,1主

    2024年02月10日
    浏览(48)
  • OpenAI推企业版ChatGPT,英伟达造AI安全卫士

    GPT现在已经进入了淘金时代。虽然全球涌现出成千上万的大模型或ChatGPT变种,但一直能挣钱的人往往是卖铲子的人。 这不,围绕暴风眼中的大模型,已经有不少企业,开始研究起了大模型的“铲子”产品,而且开源和付费两不误。 不管ChatGPT能不能笑到最后,英伟达肯定是大

    2023年04月27日
    浏览(42)
  • 结合OpenAI、Google、Meta发布Sora、Gemini Pro 1.5、V-JEPA,分析三家AGI路线及当前情势

    这里是陌小北,一个正在研究硅基生命的碳基生命。正在努力成为写代码的里面背诗最多的,背诗的里面最会写段子的,写段子的里面代码写得最好的…厨子。 昨天整理每周新闻,发现2024年2月15日是个大日子,三大科技巨头Google、Meta和OpenAI同时发布了他们的最新技术成果:

    2024年02月21日
    浏览(45)
  • OpenAI 的 AI 安全负责人:LLM 支持的自主代理 LLM Powered Autonomous Agents

    目录 LLM 支持的自主代理 Agent System Overview 代理系统概述 Planning 规划 Memory 记忆 Tool use 工具使用

    2024年02月09日
    浏览(44)
  • 【OpenAI】ChatGPT函数调用(Function Calling)实践 | 京东云技术团队

    6月13日OpenAI在Chat Completions API中添加了新的函数调用(Function Calling)能力,帮助开发者通过API方式实现类似于ChatGPT插件的数据交互能力。 本文在作者上一篇文章《私有框架代码生成实践》的基础上,依旧使用自然语言低代码搭建场景作为案例,将嵌入向量搜索(Embedding)获

    2024年02月12日
    浏览(52)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包