2025 年 6月 10 日 – 全球領先的云服務與安全解決方案提供商阿卡邁技術公司(Akamai Technologies, Inc.,以下簡稱:Akamai)今日宣布參加KubeCon + CloudNativeCon China大會,并發布多項全新的AI云計算解決方案,進一步助力企業構建高性能AI應用,加速預測模型和大型語言模型 (LLM) 的落地實施。
憑借覆蓋全球130多個國家和地區、超1200個網絡的4200多個節點,Akamai構建了業界領先的分布式邊緣云平臺,具備在分布式與邊緣環境中支持多樣化需求的獨特優勢。
本次大會上,Akamai重點展示以下云計算創新解決方案:
●Akamai Cloud Inference:Akamai Cloud Inference解決方案將為平臺工程師和開發人員提供強大工具,支持在更靠近終端用戶的地點構建和運行AI應用程序及數據密集型工作負載。通過本地化部署,企業可實現吞吐量提升3倍,延遲降低多達2.5 倍。同時在AI 推理和 AI 智能體工作負載的成本降低多達 86%,相較于傳統的超大規模基礎架構, 具備更高性價比。
●Akamai Cloud 加速計算實例:全新Akamai Cloud 加速計算實例是由 NETINT 視頻處理單元提供支持的新型云計算服務,采用專用芯片架構,為視頻轉碼和媒體工作負載帶來高效能處理能力。用戶無需自行部署硬件即可實現大規模、低成本的高質量視頻處理。Akamai是業界首個、目前唯一一家在云端提供VPU服務的云服務商。
●Linode Kubernetes Engine – Enterprise (LKE-E):全新Linode Kubernetes Engine是為大規模生產環境量身定制的企業級解決方案。借助LKE-E,運行大規模生產工作負載時,可實現專屬資源配置、企業級安全性與合規保障、系統穩定性與可擴展性的增強,同時簡化部署與運維流程,并大幅降低出口流量成本。
此外,Akamai還推出專為AI應用打造的安全防護方案:
●Firewall for AI: Firewall for AI 是專為AI 應用程序設計的高級威脅防護解決方案。該解決方案可為AI 賦能應用、大型語言模型 (LLM) 和 AI 驅動 API提供多層級防護,有效抵御未經授權的查詢、對抗性輸入以及大規模數據抓取攻擊,增強AI安全性與穩定性。
積極推動技術創新的同時,Akamai也持續履行對開源社區的承諾。大會期間,Akamai宣布將通過其云計算服務與內容分發網絡(CDN)為Linux內核——開源Linux操作系統的核心軟件——提供基礎設施支持,助力全球開發者協作與開源生態建設。
此前,Akamai已向云原生計算基金會(CNCF)承諾捐贈100萬美元,進一步推動云原生技術發展。Akamai現為CNCF黃金會員及KubeCon大會白金級贊助商。
歡迎前往KubeCon + CloudNativeCon China現場 Akamai 展臺(展位號:G5),了解Akamai最新云計算方案,觀看現場演示并與技術專家深入交流。