5月31日消息,日前,包括 “ChatGPT 之父”Sam Altman 在内 的350 位 AI 权威签署了一封联名公开信,并对当前正在开发的 AI 技术可能会对人类构成生存威胁担忧。
这封信只有一句声明:降低人工智能灭绝的风险,应该与其它社会规模的风险(如大流行病和核战争)一样,成为全球的优先事项。
据了解,超过 350 名从事人工智能工作的高管、研究人员和工程师签署了这份由非盈利组织人工智能安全中心发布的公开信,认为人工智能具备可能导致人类灭绝的风险,应当将其视为与流行病和核战争同等的社会风险。