在《纽约时报》一篇题为“聊天机器人威胁民主”的文章中,作者描述了使用聊天机器人带来的危险。由于隐性营销人员在数据收集中使用的策略及其对销售的操控并未立即被视为一种广告形式,因此该方法可能会引起立法者的注意,有助于数据收集的操作标准的制定。鉴于有关此类操作的司法议题已经出现,当代商界巨子及业界创新者极有必要做好相关准备,未来需要遵守相关规定,合法营销。
鉴于上述隐性营销在道德方面存疑,一些进行有组织的抵抗的法律机构及团体出现了,专门针对使用智能数据分析进行的隐性营销。这些机构包括一些公益研究小组、其他第三方组织、监管机构,甚至是零售商。他们将扮演隐性营销的反制角色,成为隐性营销的吹哨人。为了避免触犯政府法规,也为了不失去消费者信任,音乐及新闻频道这些行业已开始自我监管隐性营销行为。法律不仅可以禁止AI的秘密营销和随之而来的操控,也可以对此进行惩处。违法者将被公示、谴责,甚至被起诉。中国于2020年5月颁布了新的《民法典》,将于2021年实施。该法典对个人隐私信息给予了更多保护。
想要起诉隐性营销行为人的话,未必需要非常明确的相关法律。作为一家提供平台、让独立观察人发布商业评论的私营实体公司,Yelp(我曾在2013—2014年与其代理机构有过合作)已起诉那些在网站上创建虚假评论和试图将其网站用作隐性营销平台的人,他们的操作已妨碍了公司自身的有效数据收集。然而,隐性营销、商业操控和违法之间的界限是什么?某眼镜品牌的营销经理最近告诉我,他们申请了《法国世界报》(Le Monde)的服务(该眼镜品牌已与出版商达成合作伙伴关系),可根据客户在大街上的地理位置对其进行定位。每当消费者在竞争对手的门店前停留超过一分钟时,《法国世界报》就会检测到信息并将其同时发送给脸书算法以及眼镜品牌商。眼镜公司将立即向该消费者发送一张产品折扣券,推动该潜在客户继续前行,去往该眼镜品牌的门店。技术角度上说,这个操作并不违法。
AI产生负面结果的另一个实例与领英(Linkedln)有关,有人在领英网站上使用了伪造的个人资料。2019年6月,网站上出现一则虚假的个人资料,一个名叫凯蒂·琼斯的红发女人声称自己在“华盛顿特区顶级智囊团”工作。事实证明,不仅其个人资料是假的,甚至使用的照片也是假的!技术专家在图中发现了生成式对抗网络(GAN)伪造照片的常见瑕疵,因此认为这张照片是由AI合成的。
为了生成此类照片,GAN要从真实个体的现有照片中模拟假脸:“人工智能算法的基本做法是从各种照片中提取不同的元素(例如发型、眼睛形状和嘴巴),合并在一起生成一个全新的人。”坊间通常的看法是,只有间谍们才会使用伪造资料来建立与前政府官员之间的联系,目前为止,还没有针对伪造资料采取任何大规模的法律行动。
本书简介中还分析了另一个安全问题,一千多条谷歌助手的语音记录被泄露,其中包含了一些永远不该被获取的敏感信息对话。问题的根源在于只要听到“OK”或“嗨,谷歌”等字眼,录音软件就会被唤起并开始录音。虽说安全漏洞完全是由谷歌员工的疏忽造成,并非由系统黑客或故障引起,但这个潜在问题一直存在——谷歌助手AI在不知不觉中记录着你的一切。然而,没有任何人因此停用谷歌的服务。
尽管还有一些公共和个人力量仍在抵抗,但这并不意味着他们可以阻止正在发生的事情。AI和隐形数据收集将继续合法增长。当今的品牌力量强大,未来他们很有可能试图掩盖自己神话般或者近乎魔术般的本性。消费者像任何公民一样,乐于受到权威的指引,前提是他们确信自己能掌控这个权威的正统性。隐性营销技术会尽可能隐藏其商业利益,继而隐藏其神祇般的力量。
至少,按照斯宾诺莎(Spinoza)的理论,消费者生活在自由思考的幻想中。从长远来看,公司使用AI进行隐性的数据收集可能会给自己带来一个更大的问题,那就是,讨厌品牌和市场营销的消费者会越来越多,他们也确实有理由怀疑营销与品牌的无所不在。以DNA鉴定公司23and Me为例,该公司正在创建一个巨大的人类DNA数据库,收集你的数据,以换取基于对你DNA分析后做出的预测。
弗洛伊德创造了一个名词——“不安的异象”(inquiétanteétrangeté)。有一次,他被窗户倒映出的景象吓了一大跳,事后发现那其实只是他自己的倒影。由AI监控的社交网络、品牌、应用程序、物联网、机器人、网络搜索引擎——所有这些无处不在且线上线下都可收集数据——它们可以创建出一个我们自身的虚拟替身,一个钻进我们脑海深处进行过探测、所以深刻了解我们感知的替身。诚然,我们总想向世界展示一个理想的自我版本:但我们知道,撒谎、隐瞒或伪装,都是我们生活的一部分。(www.daowen.com)
可是社交网络、机器和AI不会说谎。它们帮助我们做出的决策不会与我们的无意识相左,这对我们来说只会更好。AI是美丽的,也同样非常可怕:我们终于可以按照内心想法生活,但我们的内在冲动和购买需求将完全透明,哪怕购买力实质下降。然而,如果这些内在反射被主管部门、公司、有权势者或其他机构使用,那么离被操控就不远了。以上所有机构都可以对我们做出判断,不是根据我们的所作所为,而是由算法依据我们的在线行为分析得出:我们到底想做什么。作为人类的天性,我们躲不开这条操控之路,甚至在这条路上踩刹车也做不到。
另一个可能的选择是——品牌说出营销真相,而消费者选择接受。如果消费者意识到隐性营销的发生,他们可能会明白公司将从中得益。没人喜欢被骗,这也可能使得公司对隐性营销却步,转而选择真心帮助大众,为大众的福祉出售产品,并让他们了解真相。
下一部分
未来的替代方案会是什么呢?
我们不妨思考一下:如果AI对我们欲望的预测是完完全全的,那为什么还要避免所谓的数据主义,即数据信仰呢?我们将要思考的例子已超出了我们现在的所见范围。如果我们的整个生活要被监视——包括我们的假期、我们的工作——那么,或许简单同意购买或直接接受命令就是更好的选择,就像你也会去征询他人的意见一样——神、神话和神兽都有可能来辅助决策。
我们可以将GAFA视为新的神话,他们越来越像一个国家。因此,我们可以接受他们在法律、外交和金钱方面的指令。
正如我们在第一部分中看到的那样,消费者习惯于被传统讲故事的手法操控。在新神话品牌统治下的世界,人们有意识地被胁迫也属正常。在自愿奴役的背景下,我们将从心理分析的角度分析这些操控技术如何发挥作用,并力求了解GAFA催生无意识被动的更深层机理。
最后,我们将研究合法AI营销帝国兴起后,可能出现的法律问题。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。