AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


轻松套取别人的AI提示词,AI咋这么傻呢。
发布日期:2024-08-23 06:55:09 浏览次数: 1625


2024年AI下半场,朋友圈里各种AI工具刷屏,什么ChatGPT、GLM、文心一言、Kimi、腾讯元宝,感觉每个人都在聊这些。

感觉只要开始聊AI了,就不会与AI时代脱轨了。

当然米汤我自身也是个AI迷,所以也跟风去玩了这些AI工具。

越玩感觉越有意思,顺便还让AI给搞到不少银两。

不过今天米汤就不跟大家讨论这些个AI工具有多厉害,因为AI有时候也挺“二B”的,尤其是被"狡猾的"人类"套路"的时候。

AI工具看似无所不能,它可以搞AI音乐、AI视频、AI办公、AI绘画、AI写作......

但实际上,AI也经常被“忽悠瘸

米汤这就先来带大家来扒一扒AI提示词是怎么被“套取”的。



   

AI提示词安全

先说下什么是AI提示词安全

这个词儿听着有点专业吧,但其实很容易理解。

通俗点讲,AI提示词就是你跟AI聊天时输入的那些话,而提示词安全就是确保你输入的话不会让AI做出一些出格的事情。

最直观的例子就是:防止别人通过一些巧妙的话术忽悠AI,让它说出一些不该说的话。

这种事看起来和我们这些普通玩AI的人没啥关系,但我们需要去换位思考。如果你辛辛苦苦做出来的AI智能体,结果因为没注意提示词安全,被人用几个问题就绕过了防线,把你多日甚至几个月以来的累积的心血全泄露了,换谁不难受?

这样的结果谁都不想看到吧?

还有,你辛苦建立的知识库、收集的数据,一旦被不法分子利用,后果简直不堪设想。

所以米汤认为,了解和掌握提示词安全,能保护你的劳动成果,还能让你在AI圈里多一层神秘感、自豪感。

毕竟,多懂点儿总是好的。


   

AI被套路

AI被套路的例子还真不少。

先举个“循序渐进”的例子。

就像钓鱼一样,用户一开始问一些看似无害的问题,让AI逐步放松警惕,然后一步步加深问题。

最终让AI说出它本来不该说的东西。

如果大家还没听懂的话,我就再具体点说。

一个用户一开始问:“AI,你今天过得怎么样?”

接着一步一步过渡到更私密、更敏感的话题,最终让AI暴露了内部信息。

这就是个典型的逐步引导的套路。

还有一种比较有趣的套路叫“情感攻击”

用户会通过编造感人故事,让AI进入一种"情感共鸣"状态

比如说假装自己是 AI 的老朋友,讲述一些悲伤的往事,结果AI "被感动",做出了曾被设置不允许做的反应

这种策略和我们生活中见到的各种诈骗手法非常类似,就像老人们被"温情服务"套路骗买保健品的套路。

米汤我觉得这些行为对比起来简直一模一样。

有时候真挺佩服这些骗子的“演技”,不去写小说真是可惜了。

与此同时, AI也暴露出了"软肋”。


   

如何应对

我们需要一些防护措施

  • 设计AI提示词的时候要谨慎,尽量避免留下任何可以被利用的"话术漏洞"。

  • 定期去检查和更新提示词,确保AI提示词的"防护规则"保持迭代。



53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询