在不断发展的 AI 环境中,企业的未来不仅取决于进行实验的能力,还取决于进行战略调整的能力,将实验转化为可持续的创新。当我们拥抱 AI 时,需要优先考虑相关性、紧迫性和资源性,以打造在数据驱动的世界中蓬勃发展的弹性企业。
近日,Akamai亚太地区首席技术官 Jay Jenkins分享了对于即将到来的2025 年技术的趋势预测和观点,他认为,分布式计算将成为提高效率、灵活性和响应能力的首选;同时优化人工智能工作负载对于节省成本和提高性能至关重要;另外人工智能代理将从根本上改变人们与网络互动的方式,小语言模型在企业中越来越受欢迎。
分布式计算成为解决云基础设施不堪重负的重要手段
随着人工智能、空间计算和智能城市基础设施等技术对资源的需求越来越大,组织将从僵化的集中式模式转向动态的分布式架构。这种转变将使平台工程团队能够将流程与用户位置、资源成本、合规性需求和可持续发展目标进行战略性协调,从而实现前所未有的效率和适应性。
Akamai亚太地区首席技术官 Jay Jenkins
毫无疑问,分布式计算将成为解决云基础设施不堪重负的解决方案。
相关统计及数据预测显示,全球分布式计算市场销售额在2023年达到了39.26亿美元,并预计到2030年将达到144.8亿美元,年复合增长率(CAGR)为20.8%(2024-2030)。这表明分布式计算市场正在快速增长,有望成为解决云基础设施压力的重要手段。
Akamai Connected Cloud是一个大规模分布式边缘云平台,用于云计算、安全性和内容交付,它能够在全球范围内大规模交付基于云的企业级解决方案,使计算、存储、数据库和其他服务更靠近客户、关键行业和IT中心。
另外,Akamai正在扩展其全球网络,通过增设核心站点和分布站点来扩大Akamai Connected Cloud的覆盖范围。这将使计算、存储、数据库和其他服务更靠近庞大的人口、行业和IT聚集中心,实现从核心到边缘的连续计算能力。
值得一提的事,Gecko计划是 Akamai 推进云计算平台战略的关键一步,通过在将计算功能扩展到更靠近用户、设备和数据源的位置,为用户提供更好的体验。
优化AI工作负载有助于增长和创新
随着亚太及日本地区的企业面临 AI 工作量成本飙升,2025 年将标志着一个关键的转折点。
“领导者将优先优化推理阶段(AI 产生可操作见解的阶段),以简化运营并提高速度和准确性。”Jay Jenkins认为,这种对优化的关注不仅可以减少计算费用,还可以提高性能,使组织能够将资源重新用于增长和创新。从而形成一个强大的循环,其中更智能的 AI 转化为更高的盈利能力和 AI 能力的持续进步。
Akamai Connected Cloud平台就可以通过分布式边缘计算,能够在全球范围内提供低延迟、高可用性的云服务。这种架构使得AI工作负载可以更靠近用户和数据源,提高响应速度和处理效率。
与此同时,为了进一步提升基于CPU的推理效率, Akamai与Neural Magic和AMD合作,推出基于CPU的AI推理技术。通过稀疏化算法优化AI模型,降低算力需求,使得AI推理的效率大幅提升,处理成本也显著降低。这种技术在保持推理准确性的同时,推理效率提高了1000倍。
人工智能代理将改变人们的生活方式
当 ChatGPT 于 2022 年底首次出现时,它彻底改变了技术格局,并让我们开始重新思考互联网。Jay Jenkins预计,未来十年,人工智能代理将发挥积极作用,协助安排约会、购物和支付账单等任务。
或许在到2025 年,我们就会开始见证这一转变的初始阶段。例如,我们熟悉的聊天机器人将发展成为能够执行简单任务的基本人工智能代理,而不仅仅是引导用户浏览菜单。这些代理不仅可以帮助你完成与医疗保健提供者的预约流程,还可以直接处理预约过程,为你提供可用的时间段,而无需你付出任何额外努力。
不过需要注意的是,在使用AI应用时,用户可能不自觉地输入个人隐私数据,这些数据经过训练可构建出用户画像,存在个人隐私信息泄露风险。可预见的是,AI就好比是一把“双刃剑”,如果不能正确使用,其结果便是网络犯罪分子大规模实施高收益的社会工程攻击。
Akamai在AI安全方面采取了多种措施来保护其平台和客户的数据。例如,App & API Protector通过自动发现和安全措施降低API攻击面风险,自动持续分析流量以发现已知、未知和不断变化的API,并保护API免受DDoS、注入和撞库攻击的侵扰。它还能检测和缓解不需要的爬虫程序,提供可见性,了解爬虫程序对数字化资产的影响,并在需要时阻止恶意爬虫程序。
另外,Akamai利用AI技术检测API漏洞和风险,实现行为分析、自动响应和策略部署等。把所有的API数据镜像到Data Lake,分析用户的API访问行为,并判断是否存在风险,并关联到API防护机制阻断攻击。
小语言模型逐渐展露头脚
在过去的几年里,我们看到了人工智能能力的爆炸式增长,其中很大一部分是由大型语言模型(LLM)的进步推动的。然而,虽然大语言模型的能力令人印象深刻,但其庞大的规模导致了效率、成本和可定制性方面的缺点。这为一类新兴模型小语言模型(SLM)打开了大门。
如果说,LLM是一种通用体验,几乎可以满足任何需求,相当于访问整个网络,那么SLMss则是更有效、更有针对性的代言词。它们能够提供定制见解,同时减少对高端 GPU 的依赖,这使其成为希望有效利用大型语言模型来增强其产品和服务的企业的理想选择。
Jay Jenkins认为,到 2025 年,小型语言模型 (SLM) 将在企业中获得广泛关注。在他看来,小语言模型的兴起,不仅为人工智能领域带来了新的活力,也为众多应用场景提供了更加高效、经济的解决方案。
此外,对数据隐私的日益关注将推动企业采用更适合本地部署的 SLM,从而确保更轻松地保护敏感信息。SLM 的模块化设计和可扩展性将进一步使组织能够定制这些模型以满足其特定要求,从而无缝适应不断变化的业务需求。
因此,SLM 将改变公司利用 AI 的方式,使其不仅更易于访问,而且更符合数据管理和隐私方面的当代挑战。