2025年预测:人工智能将提升攻击能力,量子威胁增长

2025年网络安全威胁展望:人工智能驱动的变化

关键要点

在2025年,人工智能(AI)将在网络安全领域带来重大的威胁和挑战。以下是一些专家预测的主要趋势:

  • 人工智能将加剧网络钓鱼、内鬼威胁和勒索软件的威胁。
  • 恶意行为者利用AI模型进行数据篡改和提示注入攻击。
  • 企业需优先考虑端到端的安全措施,以防范AI协助的威胁。
  • 零信任架构的普及将导致组织文化的重大转变。

随着人工智能技术的发展,2025年将面临一系列复杂的安全威胁。网络钓鱼、内部威胁和勒索软件等常见的安全挑战将被赋予新的形态和威胁。专家们指出,恶意行为者将更加关注人工智能模型本身,采用新的攻击方式,比如恶意提示注入和大语言模型(LLM)数据篡改。

同时,越来越多的网络攻击已对现实世界造成实质性的影响,入侵行为不仅影响虚拟世界,还影响物理世界。
专家指出,量子计算攻击技术将被对手利用,以恶意攻击现有和新兴的加密技术。

以下是SC Media整理的关于未来一年安全专家预测的总结。如果这些预测成为现实,SCMedia将为您带来相关分析,帮助您搞清楚威胁的来源、性质,以及如何最好地缓解这些攻击。

人工智能在网络安全中的承诺与风险

生成式AI将颠覆传统安全方法

Sanjeev Verma,PreVeil的联合创始人表示:
生成式AI(GenAI)加速了人们、流程和技术的普遍理解,导致复杂攻击(包括精致的网络钓鱼邮件、深度伪造、语音钓鱼等)迅速增加。GenAI强大的搜索和分析能力也将被用来发现未修补的零日漏洞和CVE(公共漏洞和暴露)。

恶意行为者将通过操控私人数据利用AI

Daniel Rapp,Proofpoint的首席AI与数据官指出:
随着模型越来越具备能力,半自动AI代理将融入自动化工作流程,这为恶意行为者提供了操控私人数据的机会。随着这些AI代理对私人数据的依赖加大,包括电子邮件、软件即服务(SaaS)文档库等,确保这些数据的安全将显得尤为重要。

保护AI协助的威胁,规划AI驱动的威胁

Troy Bettencourt,IBM X-Force全球负责人表示:
AI驱动和AI辅助的威胁有明显区别。AI驱动的攻击(如深度伪造视频诈骗)迄今较为有限,而当前主要的威胁仍然是AI辅助的。组织应优先实施全面的安全措施,确保自身AI解决方案的安全,保护用户界面、API、语言模型和机器学习操作,同时要认真防备未来AI驱动的攻击。

网络安全将采取“信任但验证”的编码策略

Andrea Malagodi,Sonar首席信息官表示:
我们应当拥抱AI创新,以促进软件开发的未来轨迹。AI生成的代码和测试工具可以提升开发者的生产力。然而,AI只是开发者技能的补充,而非替代品,企业领导者必须认识到这一重要区别。系统或功能的构思、设计与架构不仅是编码细节,它更是一门工艺,不能被忽视。

如前所述,人工智能将继续提升开发者在软件开发过程中的生产力,但如果不解决代码开发过程中的根本问题,AI生成的更多代码只会导致需修复的代码增多。软件团队需要利用经过验证的自动化代码测试工具,借助人类视角和批判性思维来确保交付高质量的代码。

恶意使用多模态AI将形成完整的攻击链

Corey Nachreiner,WatchGuard的首席信息安全官表示:
到2025年,恶意使用多模态AI将形成完整的攻击链,包括整合文本、图像、语音和复杂编码的能力。恶意行为者可能会利用这一点,简化和自动化网络攻击的整个流程。这

Leave a Reply

Your email address will not be published. Required fields are marked *