微信扫码
与创始人交个朋友
我要投稿
企业在使用大模型时通常会面临如下风险:
(1)数据隐私和保密性
大模型可能会在未通知用户的情况下,与第三方分享用户信息。例如,任何在提示中使用的敏感或保密信息都可能被用于训练大模型,并通过生成回应的方式提供给企业以外的其他用户。
尽管一些供应商(例如OpenAI)为用户提供了选择退出(opt-out)的权利,用户可以拒绝将对话数据用于训练模型,但并非所有供应商都提供这种灵活性,而且用户可能并不知道这种选项。
(2)知识产权和版权归属问题
大模型输出的内容中可能包含受版权和知识产权保护的信息,这可能导致知识产权或侵犯版权的风险。
(3)生成内容的准确性
大模型实际上无法真正“理解”内容,因此会在不经意间提供错误信息。以大模型在安全操作中的使用为例,如果生成的配置或代码存在错误,就会影响组织的安全性甚至应用程序的正常运行。所有大模型输出的结果都必须由经验丰富的安全分析师进行审查,甚至在测试环境中进行分析。
(4)网络安全问题
黑客不仅可以访问存储在大模型中的数据,还可以使用提示注入技术让大模型泄露不该泄露的信息。
(5)员工滥用
大模型可能被员工用于非法活动,如制造虚假信息(例如,模仿某人或政府的语义)。
(6)违反法律法规
现行有多项与数据安全和人工智能相关的法律法规,不负责任地使用大模型可能会违反相关规定。例如,如果没有批准就将某些类型的数据传输到海外,采用中国境外的大模型服务将面临合规风险。
(7)供应商风险
目前很多国外的大模型服务未向中国用户开放,例如ChatGPT、Azure OpenAI,但是中国用户仍然可以使用一些方法使用这些服务,这可能会导致企业面临合规风险,例如违反数据跨境传输的规定。
中国的企业目前大多使用国内的大模型服务,但是这些大模型往往不提供企业级安全保障,在数据和安全方面缺乏透明度。因此头部企业往往会选择本地化部署大模型。
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-07-07
2024-06-24
2024-04-02
2024-06-17
2024-05-08
2024-04-27
2024-07-22
2024-09-04
2024-06-06
2024-06-20