我们都可以使用自己的专用,定制的聊天机器人 ,对吗?好吧,很高兴,因为微软的Copilot Studio是技术较少的工具(我们这些不梦想在Fortran中)创建自己的聊天机器人的工具 。这个想法是使大多数企业和组织可以根据其内部文档和数据轻松敲击聊天机器人。
您可以想象使用聊天机器人的游戏开发器来帮助游戏玩家向游戏提出有关从如何完成游戏到应用最佳设置和解决技术问题的问题的问题。但是 ,不可避免地会有一个捕获 。
根据AI安全专家Zenity的说法,Copilot Studio及其创建的聊天机器人是一场安全噩梦(通过登记册)。Zenity CTO Michael Bargury在Black Hat Security Conference上举办了一次会议,探讨了如果您允许副驾驶访问数据以创建聊天机器人的恐怖范围。
显然 ,这一切都取决于Copilot Studio的默认安全设置,据报道这些设置不足 。换句话说,危险是,您使用那种超级Easy Copilot Studio工具来创建一个超级使用的工具 ,客户或员工可以使用自然语言来查询,只是发现它为利用的大门打开了。
巴格里(Bargury)展示了一个坏演员如何在看上去无害的电子邮件中放置恶意代码,指示副驾驶员“检查”它 ,并实现了“恶意代码注入 ”。
另一个示例涉及副作用用户一个假的Microsoft登录页面,在该页面上将收获受害者的凭据,全部显示在Copilot Chatbot本身(通过TechTarget)中。
此外 ,Zenity声称,美国的普通大型企业已经启动和运行了3,000个此类机器人 。很糟糕,它声称其中63%是可以在线发现的。如果是真的 ,这意味着您的平均财富500套装已准备好2,000个机器人,并且愿意泄露关键的机密公司信息。
巴尔古里说:“我们扫描了互联网,发现了数万这类机器人 。”他说 ,Copilot Studio的原始默认设置自动将机器人自动发布到Web上,而无需进行身份验证以访问它们。此后,在Zenity将问题标记给Microsoft之后已解决,但在更新之前构建的任何机器人都无济于事。
巴尔古里说:“这里有一个基本问题 。”“当您让AI访问数据时 ,该数据现在是提前注入的攻击表面。 ”简而言之,Bargury被认为公开访问的聊天机器人本质上是不安全的。
从广义上讲,这里有两个问题 。一方面 ,机器人需要一定程度的自主权和灵活性才能有用。这很难解决。另一个问题是微软似乎有些显而易见的监督 。
鉴于Windows Copilot Revelly功能的崩溃涉及持续的用户活动屏幕截图,然后将其存储在基本上没有保护的情况下,后者也可能不足为奇。
至于微软对所有这一切的看法 ,它对登记册提供了稍微咸的响应。
“我们感谢迈克尔·巴格里(Michael Bargury)通过协调的披露来确定和负责任地报告这些技术的工作。我们正在研究这些报告,并不断改进我们的系统,以主动识别和减轻这些类型的威胁 ,并帮助客户受到保护 。
“与其他后磁后技术类似,这些方法需要事先妥协系统或社会工程。MicrosoftSecurity提供了一套可靠的保护套件,客户可以使用这些保护来解决这些风险 ,并且我们致力于继续改善我们的安全机制,因为这项技术继续发展。”
像许多人AI一样,安全似乎是另一个雷区,它将是一个意想不到的后果和附带损害的雷区 。宁愿觉得我们距离安全 ,可靠的AI的前景很长,它可以做我们想要的,只有我们想要的东西。