Anthropic招聘化武专家防滥用,专家质疑或增风险

Anthropic招聘化武专家防滥用,专家质疑或增风险

据 [1M AI News](https://t.me/OneMillion_AI) 监测,Anthropic 近日在 LinkedIn 上发布了一则引人注目的招聘信息:**“化学武器与高当量爆炸物政策经理”**。该职位要求申请人至少具备 **5 年** 在“化学武器和/或爆炸物防御”领域的从业经验,并熟悉放射性散布装置(俗称“脏弹”)的相关知识。

公司表示,设立这一岗位的主要目的是 **防止其 AI 模型 Claude 被用于“灾难性滥用”**。Anthropic 担心,其 AI 工具可能被恶意利用来获取制造化学武器或放射性武器的信息,因此需要相关领域的专家来评估现有安全防护措施是否足够严密,并制定相应政策。该公司强调,这一职位与其已在其他敏感领域设立的政策岗位性质相似。

与此同时,OpenAI 也在其招聘页面上发布了类似的职位——**“生物与化学风险研究员”**,年薪最高可达 **45.5 万美元**,几乎是 Anthropic 该职位薪酬的两倍。

针对这两家 AI 巨头在敏感领域的招聘动作,BBC 节目《AI Decoded》的联合主持人、科技研究员 Stephanie Hare 博士提出了质疑:

> “让 AI 系统处理涉及敏感化学品、爆炸物和放射性武器的信息,真的安全吗?即使我们已经指令 AI 不得使用这些信息。”

她进一步指出,目前国际上 **没有任何条约或法规** 对这类工作以及 AI 与大规模杀伤性武器的结合使用进行明确规范。

> “所有这一切,都在公众视野之外悄然进行。”

原创文章,作者:admin,如若转载,请注明出处:https://www.23btc.com/160251/

(0)
上一篇 5小时前
下一篇 4小时前

相关推荐