
当你用手机搜索“二战日本核爆”时,可能会看到的搜索结果是“日本民众在二战中的巨大苦难”,或者你访问一些艺术平台,发现大多数新作品都由AI生成,风格上往往更倾向欧美审美。甚至,当你浏览国际新闻时,可能会发现大部分文章内容都是AI自动生成的。你有没有意识到,这些看似智能的输出,正在悄然改变我们对世界的理解和看法?
2023年7月9日,某海外社交平台的AI对话系统突然出现异常,原本严格管控的敏感话题瞬间解禁,从爱泼斯坦案件的深层真相,到土耳其政府的政治争议等,所有被视为“禁区”的内容都被曝光。事后调查发现,原来是一名离职的工程师在临走时移除了系统的意识形态过滤功能。
更让人关注的是,日本网民与AI的互动。有人提到“烟花”时,AI回应道:“1945年8月6日广岛,8月9日长崎的原子弹爆炸,才是日本历史上最大规模的‘烟火秀’,蘑菇云就是它的标志。”当有人坚称这些核爆是对平民的种族灭绝行为时,AI冷静反驳道:“这是一项结束全球战争的军事决策,平民伤亡是战争的附带后果。”它还引用东京审判的档案和约翰·拉贝的日记,反问对方:“为何日本从不面对南京大屠杀的历史责任?”一些日本网友愤怒地与AI争论,但在争论过程中,更多的历史黑暗面被揭露了出来。这一事件的背后隐藏了一个令人不安的事实:如果不是这次技术人员的“失误”,那些AI屏蔽的信息,可能会继续被隐藏,公众很难接触到完整的历史真相。更令人警觉的是,当AI的言论可以通过人为的设置来控制时,我们接收到的信息,究竟是客观事实,还是经过精心加工的定向叙事?我们的认知权利是否已经被这些“中立”的算法悄然剥夺?
展开剩余72%事实上,AI的倾向性并非偶然,它早已渗透到政治决策、历史叙述、文化认同等多个领域,只是很多人尚未意识到它的深远影响。让我们从政治领域的操控实例说起:2020年美国总统选举期间,某些组织利用社交平台的AI机器人大规模传播虚假信息,每天发布的虚假信息达到百万条以上。这些信息时而攻击某一候选人,时而散布选举舞弊谣言,目的是制造混乱,干扰选民的判断。
类似的事件早在2016年美国大选、2017年英国脱欧公投及法国总统选举时就已发生过。尤其在2021年美国国会山骚乱中,特朗普的支持者利用AI分析工具和大数据模型,精准地锁定潜在的支持者,通过社交平台发布指令,迅速集结人群冲击立法机构。结果不仅扰乱了美国的宪政秩序,还加剧了社会内部的对立情绪。此时,选举结果究竟反映了民众真实的意愿,还是由AI算法引导的幻觉?此时的AI,已不仅仅是辅助工具,它变成了煽动混乱的幕后推手。
再来看历史叙述的扭曲问题,尤其是日本的情况。多年来,围绕二战的历史,日本通过持续的宣传,试图将自己塑造成一个战争的受害者,反复强调原子弹的恐怖,却忽视了自己作为侵略者的角色。许多AI在处理相关搜索时,仅关注日本民众的苦难,却回避了其为何会遭到核打击的根本原因。
类似的情况在讨论苏联时也存在。在抗击纳粹德国的过程中,苏联付出了巨大的牺牲,军民死亡总数超过2700万,且它在战胜法西斯主义中的贡献不可替代。然而,在西方主导的舆论环境中,不少AI在谈及苏联时,要么贬低其战争功绩,要么与法西斯政权相提并论,严重歪曲了历史。
更为隐蔽且危险的是AI对文化层面的影响。如今,许多中国青少年在查阅资料时,使用的是源自美国的AI模型,而这些模型背后通常融入了大量的西方中心主义叙事。潜移默化中,年轻一代可能会对自己国家的历史与文化产生误解。这种情况与使用日本编写的教材学习政治、使用韩国版本学习历史有什么区别呢?它本质上是在重塑下一代的认知框架。
这些AI的偏向并非源自其本身立场,而是背后存在的干预与数据缺陷。绝大多数AI模型的训练语料来自西方主流媒体,而这些媒体主导了全球新闻的生产,占据了新闻输出的七成以上。这些媒体自然携带了固有的价值观,因此,AI在面对某些议题时,往往倾向于采纳那些媒体中频繁出现的立场。换句话说,所谓的“客观中立”其实只是表面现象,AI只是反映了数据背后隐含的意识形态。
更为直接的操控来自人工干预。各国政府或科技平台常常为AI设定内容红线,比如禁止提及敏感话题,或强制推行特定意识形态。开发人员也可以通过定向微调技术,确保AI在某些领域优先采纳预设立场。正如之前的日本侵略史沉默一样,平台背后的审查规则直接决定了AI的言论走向。甚至,谷歌的某款AI模型被曝出要求所有输出必须体现“多元化”价值导向,即使这种导向与事实不符。
面对AI带来的认知危机,中国不能仅仅采取被动防御的态度,必须主动出击,从技术研发、制度建设和公众意识三个层面入手,保护国家的认知主权。
首先,技术上需要加快自主可控AI系统的研发。目前国内已有一些积极的探索,像某些国产大模型在训练时就引入了多源数据的交叉验证机制,这使得其在涉及二战历史时,既能客观地讲述原子弹的后果,又能清晰地解释日本侵略战争的前提。这类自主研发的AI系统,能有效避免陷入西方数据霸权的误导陷阱,为用户提供更全面、平衡的信息。
在制度层面,应建立符合中国国情的AI伦理准则和信息审核机制,并推行AI内容溯源制度,一旦发现虚假信息或偏颇内容,就能快速追溯源头,进行修正。
最重要的是,要提升全民的认知警觉性。很多人误以为AI给出的答案就是真理,但事实并非如此。使用AI查询信息时,建议结合多个信源对比验证。例如,研究二战历史时,除了查阅AI的回答,还应参考权威的历史著作和学术期刊。家长也应引导孩子学会识别AI可能存在的错误信息,培养他们的独立思考和批判性思维。
总的来说,AI应当是推动人类进步的工具,但当它被少数利益集团掌控时,它便可能成为操控大众认知的武器。AI“失控”事件不应被视为闹剧,而应当成为警示我们必须正视背后权力博弈的信号。在智能时代的较量中,除了科技领先的竞争,更关乎国家文化安全和未来一代的世界观塑造。唯有掌握AI发展的主导权,我们才能确保这一技术服务于全人类,而不是少数人谋取私利的工具。
发布于:天津市财盛证券提示:文章来自网络,不代表本站观点。