跳到主要内容

2 篇博文 含有标签「LLM」

Large Language Models

查看所有标签

vArmor v0.10.0: 面向 AI Agent 的网络访问控制

· 阅读需 9 分钟
Danny Wei
ByteDance

随着 AI Agent 的爆发式增长,越来越多的企业将 Agent 部署在 Kubernetes 集群中,以容器化的方式运行。这些 Agent 通常需要调用外部 LLM API(如 OpenAI、Anthropic 等)、执行代码、访问工具插件,甚至通过 MCP(Model Context Protocol)连接各类外部服务。然而,Agent 的高度自主性也带来了新的安全挑战——如何确保 Agent 只能访问被授权的网络资源?

vArmor v0.10.0 引入了全新的 NetworkProxy enforcer,通过 Sidecar 代理架构实现了 L4/L7 层级的网络流量拦截与访问控制,为 AI Agent 工作负载提供了细粒度的网络安全防护能力。本文将重点介绍这一核心特性及其在 AI Agent 防护场景中的应用。

AI 应用开发平台安全加固实践

· 阅读需 7 分钟
Danny Wei
ByteDance

随着大语言模型时代的到来,基于 LLM 的 AI 应用不断涌现。也因此催生出了以 Coze、Dify、Camel 等为代表的 AI 应用开发平台。这些平台通过提供可视化设计与编排工具,使用户可以通过零代码或低代码的方式,快速搭建出基于大模型的各类 AI 应用,从而满足个性化需求、实现商业价值。

AI 应用开发平台本质上是一个 SaaS 平台,不同用户可以在平台中开发并托管 AI 应用,因此平台需关注跨租户攻击风险并采取相应的防范举措。本文将以“代码执行插件”的实际风险为例,演示隔离与加固的必要性。并向大家介绍如何使用 vArmor 来加固插件,从而保障平台及其租户的安全。