OpenAI:人工智能将在 10 年内“在大多数领域超过专家技能水平”

Decrypt 2023-05-24 10:21 1.54万
分享

如果您认为 ChatGPT 是智能的,请等到您听到 OpenAI 对“超级智能”AI 的设想。


图片:Shutterstock

振作起来:超级智能 AI 即将到来。

OpenAI 首席执行官 Sam Altman、OpenAI 总裁 Greg Brockman 和 OpenAI 首席科学家 Ilya Sutskever 共同撰写的一篇博文警告说,人工智能的发展需要严格监管,以防止出现潜在的灾难性 情况。

“现在是开始考虑超级智能治理的好时机,”Altman 说,他承认未来的 AI 系统在能力方面可能会大大超过 AGI。“鉴于我们现在看到的情况,可以想象在未来十年内,人工智能系统将在大多数领域超越专家技能水平,并开展与当今最大的公司之一一样多的生产活动。”

为了回应Altman最近在国会作证时提出的担忧,三人概述了他们认为对未来战略规划至关重要的三大支柱。

“起点”

首先,OpenAI 认为必须在控制和创新之间取得平衡,并推动达成一项社会协议,“让我们既能维护安全,又能帮助这些系统与社会顺利融合。”

接下来,他们支持“国际权威机构”的想法,负责系统检查、审计执行、安全标准合规性测试以及部署和安全限制。将其与国际原子能机构相提并论,他们提出了全球 AI 监管机构的样子。

最后,他们强调需要“技术能力”来保持对超级智能的控制并使其“安全”。这意味着什么仍然是模糊的,即使是对 OpenAI 来说也是如此,但该帖子警告不要采取繁重的监管措施,例如对低于超级智能标准的技术进行许可和审计。

从本质上讲,这个想法是让超级智能与其训练者的意图保持一致,防止出现“foom scenario”人工智能能力快速、无法控制的爆炸,超过人类的控制。

OpenAI 还警告说,不受控制的 AI 模型开发可能对未来社会产生潜在的灾难性影响。该领域的其他专家已经提出了类似的担忧,从AI 教父到Stability AI 等AI 公司的创始人,甚至是过去参与 GPT LLM 培训的OpenAI 工作人员。这种对 AI 治理和监管采取积极主动方法的紧急呼吁,引起了世界各地监管机构的关注。

“安全”超级智能的挑战

OpenAI 认为,一旦解决了这些问题,就可以更自由地发挥 AI 的潜力。他们说,“这项技术可以改善我们的社会,每个人使用这些新工具的创造力肯定会让我们感到惊讶。”

作者还解释说,该领域目前正在加速增长,这一点不会改变。博客中写道,“阻止它需要类似全球监视制度的东西,即使这样也不能保证有效。”

尽管面临这些挑战,OpenAI 的领导层仍然致力于探索这个问题,“我们如何确保实现保持超级智能安全的技术能力?” 如果现在没有答案,但它肯定需要一个 ChatGPT 无法提供的答案。

本文来源:Decrypt 原文作者:Jose Antonio Lanz 责任编辑:Seven
声明:奔跑财经登载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述。文章内容仅供参考,不构成投资建议。投资者据此操作,风险自担。

评论

还没有人评论,快来评论吧

相关新闻

24亿美元加密期权到期:市场波动在即?

2024-05-03 18:55
加密期权到期日再次到来,今天有一大批比特币和以太坊合约即将到期。>

欧洲银行巨头法国巴黎银行报告比特币ETF敞口

2024-05-03 16:14
欧洲第二大银行--法国巴黎银行(BNPParibas),报告称其持有一定数量的现货比特币交易所交易基金(ETF)。根据该银行提交的13F文件,它购买了BlackRock公司旗下的比特币信托基金(iSharesBitcoinTrust,IBIT)总计1030个单位,相当于大约41684美元的投资额。该>

Jack Dorsey 的 Block 公司因涉嫌为恐怖组织进行比特币交易而面临联邦调查

2024-05-03 15:01
这些指控如果属实,可能会对 Block 公司的声誉和运营产生重大影响。>
Bitcoinist 6276