潦原浸天网

OpenAI 亲自“打预防针”,警告自家新模型存在“高级别”网络安全风险

来源:潦原浸天网-工人日报
2026-04-16 16:30:13

12 月 11 日消息,当地时间 12 月 10 日,OpenAI 通过官方博客文章发出提醒:随着其下一代人工智能模型的能力迅速提升,可能会带来“高”级别的网络安全风险。

OpenAI 在博客中指出,这些模型可能会开发出针对防御严密系统的有效零日远程漏洞,或在企业和工业入侵行动中发挥辅助作用,从而引发现实世界的安全影响。

OpenAI 表示,随着模型能力不断增强,相关团队正加大投入,以提升模型在防御性网络安全任务中的表现,并开发能协助安全人员完成代码审计和漏洞修补等工作的工具。

从文章中获悉,为降低潜在风险,OpenAI 正采取访问控制、基础设施加固、出口控制和持续监测等多重方式共同防护。OpenAI 还计划推出一项新计划,拟向符合条件、从事网络防御的用户与企业提供分级访问增强功能。

OpenAI 还将成立一个名为 Frontier Risk Council 的顾问机构,邀请经验丰富的网络防御专家和安全从业者与内部团队紧密协作。该机构的初期重点是网络安全,并将在未来拓展到其他前沿技术领域。

参考

博客原文:Strengthening cyber resilience as AI capabilities advance

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,所有文章均包含本声明。

责任编辑:潦原浸天网

媒体矩阵


  • 客户端

  • 微信号

  • 微博号

  • 抖音号

客户端

亿万职工的网上家园

马上体验

关于我们|版权声明| 违法和不良信息举报电话:010-84151598 | 网络敲诈和有偿删帖举报电话:010-84151598
Copyright © 2008-2024 by {当前域名}. all rights reserved

扫码关注

潦原浸天网微信


潦原浸天网微博


潦原浸天网抖音


工人日报
客户端
×
分享到微信朋友圈×
打开微信,点击底部的“发现”,
使用“扫一扫”即可将网页分享至朋友圈。