5 月22 日消息,路透社報道,微軟、Google、OpenAI 等16 家科技公司在21 日和22 日舉行的「人工智慧(AI)首爾峰會」上承諾安全開發AI 模型,在無法控制最極端風險 的情況下關閉其尖端系統(cutting-edge systems)。

參加的公司還包括國內企業智譜 AI(備註:騰訊、阿里、美團和小米曾對其投資)、IBM、亞馬遜、Meta 和三星。
安全承諾包括發布框架,闡明公司將如何衡量其模型的風險。 在風險嚴重且「無法接受」的極端情況下,如果無法減輕風險,人工智慧公司將不得不按下緊急停止開關,停止開發或部署其模型和系統。
這不是人工智慧公司第一次做出聽起來很高尚但不具約束力的安全承諾。 亞馬遜、Google、Meta 和微軟在去年簽署由美國政府促成的自願保障措施,以確保他們的產品在發佈時是安全的。
被譽為「人工智慧教父」的電腦科學家約書亞・本吉奧對這些承諾表示歡迎,但他指出自願承諾必須伴隨監管。
本內容來自創作者:若安丶 上傳發布,不代表本網站觀點與立場。转载,请注明出处:https://news.kejixun.com/3480.html