一份关于 AI 的联合国信息完整性报告强调了在 Sam Altman 游说国会后不久,行业高管与政客勾结传播虚假信息的可能性。
该机构强调了政府如何与公司勾结以传播符合政治或金融议程的虚假信息。
Deepfakes 放大出于政治动机的虚假信息
根据该报告,参与这些互动的各方往往难以识别。政治家、公职人员和民族国家有时会与公关公司勾结,在真实平台的克隆上发布虚假信息。
据报道:
“虚假信息可能是受政治和企业利益影响的受意识形态影响的媒体的蓄意策略。”
算法通常会促进充满情感的内容吸引注意力,即使内容的实质是不真实的。联合国表示,人工智能 (AI) 的最新进展可以通过深度造假来放大这个问题,深度造假将虚假信息报告为事实,而且前所未有地令人信服。
“硅谷‘快速行动,打破陈规’理念的时代必须结束。”
该报告还强调了 OpenAI 的 ChatGPT 工具如何成为增长最快的消费者应用程序。它在大约两个月内获得了 1 亿用户。
ChatGPT 用了两个月的时间达到 1 亿用户 |资料来源: 联合国关于数字平台信息完整性的报告
上个月,OpenAI 的首席执行官 Sam Altman 告诉美国立法者,人工智能“可能会出错”。
在参议院小组委员会面前,奥特曼呼吁监管机构为该行业的进步设置护栏。然而,诉讼程序主要围绕人工智能对人类的威胁而不是其传播错误信息和加强监视的能力展开。
联合国认为,错误信息是在无意识中传播不正确的信息,而虚假信息是故意篡改事实。
Sam Bankman-Fried 游说一个警世故事
人工智能行业参与者要求更多监管,这与联合国指出的技术高管非常相似,他们之前将用户参与置于人权之上。
AI Now Institute 的 Sarah Myers West 研究新技术的社会影响,最近认为:
“在 [AI] 系统的快速发展中处于领先地位的公司与在过去十年中因违反反托拉斯法、违反现行法律或信息危害而被国会指控的科技公司是同一家。”
Sam Bankman-Fried 臭名昭著的加密法规游说从未实现并最终以欺诈罪被捕,这凸显了让行业参与者参与立法可能适得其反。
美国证券交易委员会一再拒绝让行业说客参与潜在的新监管,认为现有法律就足够了。
倒闭银行 Silicon Valley 和 Signature 的前高管游说国会放宽《多德-弗兰克法案》对小型银行的资本要求。
在存款人通过大规模提款测试这些宽松的要求后,两家银行在 3 月份都经历了挤兑。
奥特曼的游说可能会限制客观的美国人工智能监管
Altman 最近提出了一份合规清单,如果满意,将使 AI 公司免于承担额外的责任。他还要求在发布前对大型语言模型进行审核。
然而,人权组织此前曾辩称,科技高管的游说削弱了使公司受益的法律。
在此处阅读有关 Meta 转向人工智能的信息。
耶鲁大学信息社会项目的研究学者 Mehtab Khan 对这种监管方法的片面性表示遗憾:
“他们最终制定的规则给了他们很大的空间来基本上建立不妨碍他们商业利益的自我监管机制。”
电子隐私信息中心的律师本·温特斯 (Ben Winters) 预计美国法律不会很快解决人工智能的直接威胁:
“凭良心,我无法预测联邦立法机构会在不久的将来提出一些好的建议。”
与此同时,美国针对 AI 的潜在监管解决方案可能来自美国联邦贸易委员会的非法所得规则,该规则迫使公司销毁非法收集的数据集。
公司也可以遵守反垄断标准,以防止滥用其市场地位。