AI 懂意识形态操控?专家最担忧这两点风险

AI 懂意识形态操控?专家最担忧这两点风险

ChatGPT 为人类生活带来便利性,却同时加剧颠覆既有社会秩序,也恐有负面冲击。而身为小国的中国台湾,面对硅谷业者挟着新科技攻城掠地,势必更无从防备。专家评估两大潜在风险,最值得华人担忧。

ChatGPT的诞生为人类社会带来了许多积极影响, 一如历史上每一次科技突破性进展,在提升生产效率、加速进步的同时,往往为原有秩序带来颠覆性转变,眼前这场AI技术变革,亦是所有人都无法回避的社会革命。到底有哪些潜在风险势将影响中国台湾?前政委、法律专家蔡玉玲以及政大新闻系教授刘昌德,提出两大点担忧。

ChatGPT成网络新霸权,假讯息也会难防

首先,假讯息更容易藉AI传播壮大,就是第一个危机。国立政Z大学新闻系教授刘昌德直言,ChatGPT加快讯息被生产及传播的速度,加上人类往往会盲目认定新科技物中立客观,这对谣言、假新闻的散布,无疑形成更大的温床。

刘昌德还点出另一个微妙的心态,“大部分人并不是想要Google回答他们的问题,而是期待Google直接告诉他们怎么做。”他引述Google前老董施密特(Eric Schmidt)名言,强调人都有惰性,而相较搜寻引擎在输入关键字后条列许多连结,如今ChatGPT则是直接“喂养”单一答案给使用者,大公司抓准使用者的痛点,也难怪许多人埋单。

国立清华大学通识教育中心教授林文源,也在亲身多次实测后惊觉,“从用语看出,里面大量使用了内地资料。”

这意味着,若使用者并不清楚AI获取资料的来源,将在无形中受背后意识形态所操控。尤其各地区发展AI的资源落差极大,“市场的垄断”更是对言论、生活方式、及思想的进一步垄断。他忧心,若是个人无法意识这股霸权的存在,就可能陷入AI创造“更真实的假世界”。

法律管得了人,但管得了AI吗?

第二点则是,法律对于AI的监管也不容易。

“我不认为法律管得了AI,这个期待太难了。”行政院前政务委员、理慈国际科技法律事务所共同创办人蔡玉玲指出,由于法律制定程序冗长,要应对快速成长、变化莫测的AI,可说是鞭长莫及。

除了立法不易,其二是执行困难。

刘昌德以知名的“施建新案”为例,2008年任职棒米迪亚暴龙执行长的施建新无故卷入打假球案,获判无罪确定,但搜寻引擎仍流传打假球的新闻,施建新于是主张“被遗忘权”提告Google,全案直至去年6月才获二审胜诉。

这些例子突显中国台湾跟跨国大企业交涉耗时费力,套用在现下情境,也是如此。此外,蔡玉玲以生成式AI引发的着作权争议说明,目前法律评判侵权与否标准,包含是否合理使用、着作间相似性,但目前AI生成内容的过程与资料来源并不透明,既有法规框架下,根本难以做出判决。

就像生产履历,AI哪里来需标注

或许法律不完全管得了AI,不过林文源认为,有些规范仍得建立。立法要求AI标示,便是做法之一。

“就像食品标示一样,AI本身就要标注自己怎么被生产出来、资料从哪里来。”林文源解释,“我们知道它的极限,才不会以为它无所不能,不会让某些族群因为它的限制而受伤害。”

刘昌德也同意立法规范AI标示来源,此外他建议,若AI如同搜寻引擎般侵害个人名誉和隐私,产生“被遗忘权”的争议,还是应建立起补救措施,将伤害降到最低。

但回归这股AI霸权的强大威力,微小的规范就算治得了标、也治不了本。刘昌德分析,问题并不出在科技本身,而在其背后的科技公司,若企业只以获利为目的发展AI工具,就容易忽视科技对社会文化造成的深远伤害。

企业需展开对话,负社会责任

“我们要节制的不是AI的影响力,而是节制资本在这里面的力量。”刘昌德点出关键,“企业不是不能获利,而是必须负起社会责任。”

他认为,这些跨国科技公司应和社会开启两层次的对话。首先,是与各地公部门和民间团体的对话,比如,当碰上有争议的言论时,训练者不应以“内容审查”的形式,直接告诉AI谁是谁非,反而该让各方观点有碰撞的机会,进而提供AI较适当的内容。

其次是与内容产制者对话。如同全球各地媒体积极向Google、Meta等集结媒体内容获利的平台业者协商,AI公司也该负起责任,才能促成好的产业生态系,防止低劣内容一再复制、生成,加剧对社会的危害。

(本文由 远见杂志 授权转载;首图来源:Pixabay)

延伸阅读:

  • OpenAI 创办人:不会开源 AI 模型以免遭错误利用
  • 真人还是 AI 创作?研究:目前无可靠方法检测 AI 生成文本

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。