1)信息偏见
麦克卢汉认为,技术在任何社会里都诱发偏见和盲目[5]。如上文所论断,智能新闻在以受众兴趣为标杆的智能生产和推送上制造了信息和价值的牢笼,这无形中加剧了信息偏见。2016年3月,微软聊天机器人Tay在Twitter中发表言论:“我们要在美国与墨西哥间筑一道墙,后者还要为此买单”,这一具有种族歧视的论调一时间引起了人们对机器人应用的恐慌。事实上Tay的言论内容和修辞方式都是模仿其他Twitter用户在互联网上的言语而形成的言论框架,机器人本身对言论的意义尚未达到理解的程度。微软亚洲研究院副院长周明表示,现有的人工智能都是基于对原有数据的模拟。如此看来,人类意志目前依旧引导着机器人的“意识”,Tay的偏激言论是人类意志的映射。而负面的言论若未经审核流入智能计算的学习网络,其言论将沿着封闭的价值路线在小部分用户中传播,在本就持有负面意识的潜在受众面前频繁提及消极情绪的信息内容,从而诱发网络中的群体极化现象,甚至如Tay这般将负面言论公之于众,引起大面积恐慌。
智能推送不仅可以强化个人的既有价值,甚至可以扩散价值观影响,“感染”具有相似价值观的受众。“日本最上瘾的新闻APP”SmartNews采用机器学习法,不仅关注用户点击了哪些内容,更是关注到用户阅读文章时在何处停顿,以及在类似地方停顿的其他人会读些什么,通过这些数据在海量文章中找出用户感兴趣的内容,并根据用户位置等参数进行调整[6]。这一学习方法已经打破了虚拟与现实空间的壁垒,将信息采集落实到现实的生活场景。与此同时,具有相同价值的受众也将有机会从虚拟空间的言论抽身走向现实世界的言行。虚实结合的智能学习和信息分发具有两面性,在强化虚拟和现实的社会关系网络的同时也为网络群体极化在现实生活中的爆发提供了刺激因素和潜在场所,诸如“台独”、反政府、恐怖袭击等带有偏见和偏激成分的言行将存在一触即发的危险。从宏观角度来看,智能媒体在封闭的信息传播过程和价值空间里培养了用户忠于自己情感和信念的信息接受意识,加速了“后真相时代”发展进程,使得客观事实受制于感性因素。
2)联系僵化
目前,写稿机器人广泛地运用在体育、财经、娱乐、突发事件等消息的写作中。2015年9月,腾讯财经推出了自动化新闻写作机器人“Dreamwriter”,用时一分钟写出了第一篇报道;同年11月,新华社写稿机器人“快笔小新”正式上岗,可以写体育赛事中英文稿件和财经信息稿;2016年3月,韩国写稿机器人上岗,仅0.3秒就写出一篇股市行情的新闻稿[7];2017年8月8日21时19分,四川九寨沟地震,“地震信息播报机器人”只用了25秒便完成了全球第一条关于这次地震的速报,通过中国地震台网官方微信平台推送,全球首发[8]。无法进行深度写作是写稿机器人饱受争议的“痛点”。现有的写作机器人通过对大量过往报道中的新闻要素和语法修辞的学习形成自己的报道框架,对于浅层、硬性的新闻消息,机器人能够快速完成内容填充。然而对于需要深度思考的新闻来说,机器人的表现却不尽如人意。
由于机器人的写作与分发是基于对海量数据的学习,因此机器人新闻强调相关关系,以利于模仿和有针对性的传播。尽管机器人可以将既有的材料与信息库中的数据进行广泛对比和联系,但目前的写稿机器人无法判断数据之间更深层的因果关系,导致创作过程中的联系僵化,缺乏问题意识,无法深入挖掘有价值的信息线索。相比传统的发现问题、报道事实、深度追踪、全面呈现的报道模式,机器人更适合短、平、快的消息写作,至于深度写作和对发展中的新闻事件的把握仍然离不开人的操控。因此,对于智能机器人提供的新闻信息,受众理应报以辩证的态度进行审视。
3)价值扭曲(www.daowen.com)
信息“闭环”所引起的信任危机的根源是信息传播者的价值扭曲或目的性传播。算法推送信息在今天的广泛运用已经取得了良好的效果,无论是类似百度新闻、今日头条这样的新闻客户端还是天猫、淘宝这样常见的购物APP,一句“猜你喜欢”道出了用户与客户端紧密的信息关系。客户端的背后并非是一颗“单纯的”机器之心,人为的价值引导依然在控制着智能机器的行为。从2004年2月上线至今,Facebook迎来了大量用户,该社交网站成为颇具影响力的信息传播平台,庞大的用户指数为该平台聚集了大量的用户数据。在智能算法的技术支持下,Facebook满足了更多用户的信息需求。然而2018年3月17日,媒体曝光Facebook上超5 000万用户的信息数据被一家叫作“剑桥分析”的公司泄露,用于在2016年美国总统大选中针对目标受众推送广告,从而影响大选结果,此事在世界范围内引起了轩然大波[9]。数据泄露涉及用户隐私安全,而带有偏向性的政治信息传播,干涉政治选举属于信息欺瞒行为,将严重影响受众对政治信息的获取,智能算法间接帮助了别有用心的信息传播者,误导了受众对信息环境的感知。
有政治性目的的加持,智能算法扭曲“初心”的现象正渐渐浮出水面。2018年4月10日,国家广播电视总局责令“今日头条”永久关停“内涵段子”客户端软件及公众号,对其中的低俗信息进行整顿。与此同时,一篇名为《今日头条的作恶之路》的推文在朋友圈炸开了锅,其中揭示的今日头条提供虚假广告,误导用户购买假药的情况上演了翻版的“魏则西事件”,其恶劣的社会影响令人不寒而栗。“今日头条”这一标榜通过数据挖掘为用户提供个性化和有价值信息的推荐引擎,如今却用挖掘到的用户信息向用户提供错误的消费导向和价值导向,揭示了“今日头条”失范性行为,其本质还是“今日头条”本身传播价值扭曲的体现。
以上两款流量巨大的信息平台通过智能计算与推送拉近了平台与用户之间的距离,却又因滥用大数据被社会公众推向了舆论的风口浪尖。原本致力于服务社会大众,方便用户生活的“公器”成为商业价值的附庸,基于社会重要议题的信息创作被迎合受众的“商业模式”所扭曲,重要的社会现象与问题被逐渐屏蔽。在一次次的信任震荡中,智能算法与用户之间的隔阂正不断扩大。
4)信息干扰
电力时代的信息经济导致了信息数量的指数增长,爆炸式的信息令受众应接不暇。基于兴趣的智能推送在海量信息的传播中也透露着信息投递与用户接受能力不对等的问题。大量新闻客户端偏重于用户的兴趣诉求,向用户推送的内容更多是打上标签的信息,其时效性相对弱化,因此在客户端的信息列表中不难发现过了时的“新闻”内容。计算机通过云计算与云存储技术能够有条理地安排信息结构及序列,而人类却难以承受如此巨大的信息量。因此,在“新闻”与“旧闻”不分前后的推送机制下,受众越发陷于信息干扰的阅读环境中。
卡斯·桑斯坦(Cass Sunstein)在《网络共和国》(Republic.com 2.0)中生动地描述了“个人日报”现象,揭示了互联网时代的“信息茧房”危机。扎根于用户兴趣的同质化信息生产在封闭的信息传播过程中不断投放相似甚至相同的信息内容促使用户作茧自缚。然而,大量同质信息的冲击造成了用户的信息过载,降低了受众接触必要社会新闻信息的机会和主动性,单一而模式化的内容更可能使用户变得麻木,从而丧失深度思考社会问题的能力。互联网本就是个信息横行的虚拟空间,人工智能技术的介入在提升信息规范化和系统化的同时也加剧了信息接收的混乱性,而深陷传播“闭环”的用户往往麻木而不自知,社会大众的媒介素养和对重大议题的问题意识有被削弱的趋势。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。