據媒體報道,OpenAI近期全面升級其安全體系,以應對企業間諜活動風險。此次升級的核心舉措之一是推出“信息隔離”政策,旨在嚴格限制員工對敏感算法和新產品的訪問權限。
例如,在開發o1模型期間,OpenAI規定只有經過嚴格審查并獲得相應權限的團隊成員,才可在公共辦公區域討論相關細節。
同時,公司還采取了多項物理與網絡安全強化措施:將核心專有技術存儲在隔離的離線計算機系統中;在辦公區域部署生物識別門禁(如指紋識別);并實施“默認拒絕”的互聯網接入政策,所有外部連接均需獲得明確授權。報道還指出,OpenAI已顯著提升了數據中心的物理安全等級,并大幅擴充了網絡安全團隊規模。
分析認為,這些舉措直接反映了業界對外國對手竊取OpenAI知識產權的普遍擔憂。然而,考慮到美國人工智能領域日益激烈的人才爭奪戰,以及公司內部近期頻發的信息泄露事件(如CEO薩姆·奧特曼的內部發言外泄),OpenAI此次安全升級也意在解決其面臨的內部安全隱患。