文章 2024-06-06 来自:开发者社区

[AI OpenAI] 保护前沿AI研究基础设施的安全

我们概述了支持前沿模型安全训练的架构。 Security"> 我们分享了一些关于我们研究超级计算机安全架构的高级细节。 OpenAI运营着一些最大规模的AI训练超级计算机,使我们能够提供在能力和安全性方面均处于行业领先地位的模型,同时推进AI前沿的发展。我们的使命是确保先进AI惠及每个人,而这一工作的基础是支持我们研究的基础设施。 为了安全地实现这一使命,我们优先考虑这些系统的安全性。...

[AI OpenAI] 保护前沿AI研究基础设施的安全
文章 2024-05-12 来自:开发者社区

[译][AI OpenAI-doc] 安全最佳实践

使用我们的免费 Moderation API OpenAI 的 Moderation API 是免费使用的,可以帮助减少您完成中不安全内容的频率。或者,您可能希望开发自己的内容过滤系统,以适应您的使用情况。 对抗性测试 我们建议对您的应用进行“红队测试”,以确保其对对抗性输入具有强大的韧性。测试您的产品在广泛范围的输入和用户行为下ÿ...

[译][AI OpenAI-doc] 安全最佳实践
问答 2023-07-16 来自:开发者社区

阿里云安全对于openai的流式输出,如果想对流式输出内容,流式内容如何做内容审查呢?

阿里云安全对于openai的流式输出,如果想对流式输出内容,流式内容如何做内容审查呢?

问答 2023-07-16 来自:开发者社区

如果阿里云安全要对openai的返回的流式输出进行内容审查,accountid这个参数有用吗?

如果阿里云安全要对openai的返回的流式输出进行内容审查,accountid这个参数有用吗? python sdk里有个 dataid的参数,是干啥的 ?

文章 2023-05-16 来自:开发者社区

直面GPT-4的缺陷和风险,OpenAI提出多种安全应对措施

深入研究OpenAI官方团队发布的长达99页的技术报告,我们发现在GPT-4光鲜亮丽功能的背后,还隐藏了OpenAI团队付出的的汗水和努力,尤其是在缓解GPT模型自身缺陷和模型安全落地方面。报告链接:https://arxiv.org/abs/2303.08774引言GPT-4的发布直接填补了之前GPT系列的跨模态信息生成能力的空缺...

直面GPT-4的缺陷和风险,OpenAI提出多种安全应对措施
文章 2017-09-04 来自:开发者社区

OpenAI及DeepMind两团队令未来的AI机器更安全

OpenAI和DeepMind的研究人员使用的新算法从人类反馈中学习,他们希望这样做能使人工智能更安全。 两家公司均为强化学习的专家,强化学习是机器学习的一个领域,其基本思想是,如果代理在特定的环境里采取正确的行动完成了任务就给予奖励。该目标是通过一种算法来指定的,代理经过程序后就会追逐奖励,例如游戏中的获胜点。 强化学习在训练机器如何玩如Doom或Pong等游戏或通过模拟驾驶自主驾驶汽车等案例....

文章 2017-08-01 来自:开发者社区

如何管教AI的行为举止?OpenAI早已开始研究,而这只是整个AI安全领域的前哨

雷锋网 AI 科技评论按:在比赛中刷成绩和在游戏中击败人类职业选手仅仅是 AI 研究的一部分,OpenAI 的研究人员们同样重视对 AI 安全性的研究。这篇文章是纽约时报来到 OpenAI 实验室的报道,介绍了 OpenAI 近期在 AI 安全领域的想法和一些成果,也让我们看到了 OpenAI 研究人员的风采。雷锋网 AI 科技评论编译。 自学的人工智能可能学到奇怪的行为 在旧金山的 Ope...

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。