随着人们对生成人工智能 (AI) 的兴趣日益浓厚,一份报告显示,消费者越来越关心公司如何使用该技术。
2023 年带来了生成式 AI 工具的繁荣,例如 ChatGPT、Bard、Midjourney 等。然而,随着公司探索使用生成式人工智能来扩大业务规模,信任差距已经扩大。
Salesforce:不信任感上升
Salesforce发布了《互联客户状况》报告,该报告收集了超过 14,300 名企业买家和消费者的数据。
随着生成式AI 炒作的不断升温,Salesforce 的调查显示,只有 13% 的消费者完全相信公司会合乎道德地使用 AI。而 10% 的消费者完全不信任公司使用生成式人工智能。
单击此处了解有关 2023 年最佳人工智能公司的更多信息。
只有 13% 的消费者完全相信公司会合乎道德地使用人工智能。 来源:Salesforce 调查
需要人类参与
此外,调查还显示,消费者担心数据安全风险、人工智能的不道德使用和偏见。超过 89% 的消费者认为了解他们是与人工智能还是人类进行交流很重要。
80% 的消费者还强调,人类保持在循环中以验证人工智能工具生成的输出非常重要。
六月,美国参议员提出了两党人工智能法案,要求在做出关键决策时强制让人类坐在驾驶座上。此外,如果政府使用人工智能与公众互动,则必须进行适当的披露。
消费者对使用人工智能的公司保持信任的意见。 资料来源:Salesforce
在信任差距日益扩大的情况下,Salesforce 首席道德官 Paula Goldman 分享了她对优先考虑消费者信任的见解。她说:
“收集高质量数据并确保收集过程的透明度和同意一直很重要。但这不仅仅是获取数据。它还涉及一旦我们获得数据后会发生什么。
公司可能一如既往地需要数据,但他们能做的最好的事情就是保护客户,建立优先保护数据及其客户信任安全的方法。”
今年7 月,谷歌和 OpenAI 等人工智能巨头的高管承诺在白宫维持安全和透明的人工智能开发。
除美国外,英国正在努力发布人工智能监管白皮书。 11 月,英国将主办世界首届人工智能监管全球峰会。
对于消费者对生成式人工智能或其他方面的不信任,您有什么要说的吗?写信给我们或加入我们的Telegram 频道的讨论。您还可以在TikTok 、 Facebook或X (Twitter) 上关注我们。