查看原文
其他

彭兰:新“个人门户”与智能平台——互联网发展的未来走向 | 德外荐读

彭兰 德外5号 2023-11-15


本文探讨了:在ChatGPT等生成式人工智能技术的推动下,未来可能成为主流传播形态之一的人机互动“个人门户”模式将如何变革传播方式、影响个体;推演智能平台新走向下的人机关系及生存图景,以及可能产生的新权力变局。


文章揭示了来传播格局演变过程中,各参与方面临的机会与风险,是面向未来开展战略布局的有益参考。



当ChatGPT或类似生成式人工智能技术进一步发展并在普通用户中普及时,个体的信息消费模式也将变化。人们在信息消费方面对社交媒体的依赖会有所减少,用户的注意力与时间会越来越多向机器转移,由此可能带来新一代的互联网平台——智能平台并引发互联网中权力关系的重构。

从人际互动的“个人门户”

向人机互动的“个人门户”迁移的可能


但ChatGPT等应用的出现,会对现有的个人门户形成挑战,人们的注意力将越来越多地转向与机器的互动,而人机互动会构建一种新的个人门户。


(一)人机互动“个人门户”兴起的技术基础与用户动因


在今天的智能分发中,算法主要是在单一平台中进行内容推荐,在推荐内容的广度与多样性方面会存在局限。而ChatGPT则是将多个平台的内容作为语料库,基于语料库素材进行内容再生产,因此,它打破了单一平台的封闭状况。


相比具有跨平台分发功能的搜索引擎,ChatGPT不只是起到导航、引流的作用,而是直接完成了知识或信息的梳理甚至整合过程,大大提高了人们在信息和知识获取方面的效率。ChatGPT的出现,促使搜索引擎也向智能化信息整合发展,最终与它殊途同归。


今天的内容分发更多地体现的是平台为核心的思维,即使是个性化推荐算法,也是以平台流量的提升为目标。未来,无论是ChatGPT,还是智能化后的搜索引擎,都不再是为平台服务的内容分发工具,而是以用户为核心的智能助理,以用户需求驱动信息的搜索、筛选、加工与整合,为人们量身定做内容。在人们被海量信息包围,却又越来越难以处理纷繁复杂的信息时,智能助理可以大大减少人们在信息处理方面耗费的时间。


这样的智能助理,还会向工作或生活场景延伸。2023年8月,百度发布的超级助理“如流”,可以整合各种场景下的信息与服务,实现一键约会、一键休假、一键差旅,也可以实现查文档、学知识、看文献,在海量信息中抽取关键信息,生成摘要。对英文论文,可以快速生成中文摘要,或者进行翻译、解释。


可以预见的是,未来智能管家不只是存在于手机,而是会向智能家居、智能汽车等空间中的各种智能设备延伸。用户可以通过适配的终端或渠道,通过嵌入在各种APP里、专属于自己的智能管家获得特定场景下所需要的内容或服务。


ChatGPT采用的人机对话模式,也使得人的信息获取过程成为一个交流的过程,人们可以对机器给予的答案进行反驳或修正,促使机器优化其答案。通过对机器的不断调教、训练,机器的能力也会不断提高。人们所面对的,不是内容,而是具体可感的社交对象,即使这个对象是机器。这样的人机对话也会向情感互动方向发展,即使机器的情感是模拟的、机械的,也会给人们带来一定的满足。


当人们可以在ChatGPT或类似应用中,通过人机互动来支持其日常信息消费行为甚至日常生活时,这样的应用就会成为新的个人门户。


社交媒体时代的个人门户是以社交为基础,人们的关系网络对于内容的生产与消费起着重要的推助作用。没有社交互动,就不能产生内容的生产与流动。因此,人们并不是被封闭在个人中心里,而是由这个中心激发出多样的连接,无论是人与人的,还是人与内容的。


也因为如此,这样的个人门户承载的不只是信息传播,还承载着人们的社交需要,不断涌现的各种社交手段曾极大地激发了人们的社交热情。但随着时间的推移,人们在社交媒体中的社交倦怠感也在增加。人们不得不付出大量时间与精力来进行关系的维护,以及自我表演,由此感受到的压力与付出的代价也越来越高。


如果ChatGPT等应用平台构建出另一种个人门户,则将把这样的个人中心从社交网络中分离出来,也就是将人从其社会关系中抽离出来。这种分离在一定意义上意味着人们可以逃离社交关系的束缚,减少人际互动中的投入,获得某种自由。


相比以往的社交传播网络,基于ChatGPT等技术的个人门户能在更广泛的领域提供信息与知识,并且根据人们需要进行信息的再加工,即使其产出的内容存在着不准确的问题,但多数人并不会意识到问题的存在,反而会被其效率征服。人一旦有需求,机器总是有求必应,且能做出即时响应,这也容易给人们带来满足感。


(二)人机互动的“个人门户”将如何影响个体


如果人机互动的个人门户逐步普及,今天人们所担心的算法分发可能强化的信息茧房问题,是会得到解决还是进一步放大?


在以往基于社交平台的个人门户模式中,人们的社交网络决定着他们获取信息的广度与异质性。人们通常倾向于在同质化的圈层中进行社交,他们获得的信息也容易受到这些圈层的影响,社交圈层影响人们对信息环境的感知,也影响着人们的意见、态度与行动。


ChatGPT及类似的应用是以广泛的信息源作为内容加工基础,因此提供的内容会超越人们日常的信息获取渠道,特别是社交渠道,这有助于打破人们现有的社会圈子、社会位置的限制来获取信息、知识,也可以使不同圈层的人获得的信息差有所减少,当然,其前提是人们能平等地接触与使用这些智能应用。


当然,与人形成紧密互动的智能机器,也会越来越了解一个人的习惯、性格,它所提供的信息也可以不断迎合用户的偏好。但究竟是否要向这一方向发展,则取决于开发者与应用者的意愿。像今天的算法分发一样,机器是强化还是破解信息茧房,最终还是取决于人如何利用机器。


从获取信息、知识以及享受各种服务的角度看,由机器建构的新个人门户里,人们或许并不会感受到不便利,不一定会受到信息茧房的困扰,甚至可能获得更高的效率、更好的体验,但信息获取模式的改变的深层影响是带来人们交往模式的改变。


如果人们将自己封闭在新个人门户里,那就会产生研究者所预言的结果:GPT有可能会改变人类的交往方式,使个体成为信息海洋中的“孤岛”,“孤单—求助GPT—孤单加剧—继续求助GPT”的循环怪圈可能成为人类生活的常态。人们在这样的“孤岛”中逐渐失去人际交往的能力与资源。


在当下,人们或许会因为对人与人之间过度连接、过度社交的厌倦而转向与机器对话,甚至在一段时间内享受这种与机器相处的方式。人与机器的互动,不仅可以获得信息、知识与服务,也可以获得一定的情感支持,且人机交流比人际交流更具可控性,因而在人们眼里也有更好的“性价比”。但完全沉醉于与机器的交流会对人带来什么影响?


相对于人际交流中不同交流对象带来的话题多样、风格多变的交流,人与机器的交流会遵循某些模式,即使未来技术开发者给机器设计的模式更多元,甚至可以根据人们的需要量身定做交流风格,人们可以在不同心境、不同需求下选择不同的交流风格,但这种选择仍然是有限的。虽然人因此可以对交流有更多的控制,也可以减少交流中的成本,但交流的乐趣也可能减少。


今天的ChatGPT被设计成对人彬彬有礼,只会服从,不会顶撞的应用平台。虽然未来的交流机器可以有不同的性格与地位设计,但从人这端来看,多数人仍然希望在交流中自己是控制者。在人机交流中,多数人也很难将机器作为真正平等的他者看待,更不会考虑机器的感受——人们普遍认为机器是没有感受、没有情感的。当这样的人机交流常态化之时,一种结果是,不仅机器在向人靠拢,人也在向机器靠拢。人的思维和情感也会在一定程度上像机器一样变得机械、功利。


如果人们沉迷于与机器互动的个人门户,也会意味着人与人的互动、汇聚日益减少,公共交流也将减少,今天社交媒体带来的“部落化”会因此而走向“去部落化”。不同个体、不同群体间的相互沟通、认知、理解和支持进一步削弱,公共空间的舆论也不再明朗,而这未必是一件好事。社会风险会通过更个人、更隐秘的方式酝酿,虽然相对而言群体行动可能会减少,但个体的危险行动一旦爆发,同样会令人猝不及防。


个人门户也会影响到人们生活的其他方面,在很大程度上左右甚至控制人们的行为。相比现在各种平台的算法,个人门户掌握的信息可以贯穿人们日常生活的不同层面,因此,对人的个性、行为习惯的了解更为充分,一旦这些信息被不当应用,风险更大。


当预知到人机互动的个人门户可能带来的风险时,我们是否有可能阻止这样的门户产生?或许不能。技术应用的发展,很大程度上是由市场来选择的,如果用户有某些方面的强烈需要,技术又呼应了这些需要,它的兴起恐怕难以避免。


未来相关应用的开发需要平衡人-内容、人-机与人-人等多重关系,只注重人机关系的开发,虽然在当下可以满足用户的需要,但在深层也是对用户的压迫,同样会逐渐引发用户的倦怠感,其生命周期也会有限。更重要的是,这些应用开启的人与机器的关系模式,对未来人的生存会产生极大影响,对相关的风险应该有预先的研究与防范。


智能平台:门户迁移驱动的新平台走向


从平台的各要素及未来发展趋势看,智能平台将可能出现以下新的特点:


1.智能技术在平台内容生产中的应用及转义作用将日益增长


在目前的平台,算法、数据主要是对用户的内容消费起作用,而新一代的智能平台,算法、数据的新应用方向,将会更多地体现在内容生产方面,其转义也会在内容生产中进一步体现。


在内容的原创方面,机器可以用两种方式参与内容生产。在两种方式中,机器会有不同的转义作用。


其一是完全自动化的内容生产。这一机制生产的内容虽然与人生产的内容难以完全匹敌,但它具有极高的效率,也会有市场需求。自动化内容生产有不同的技术思路,但无论哪种思路,就像人类一样,它们不可能是对客观世界的原样复制,而是抽象、简化与再现,这也就会包含转义,有时是对客观对象的符号化翻译过程,有时也会存在对客观对象的扭曲。


其二是由人驱动机器生产的、或人机协同生产的内容。机器的作用是增强人的能力,帮助人突破其原有的生产局限,而可以预期的是,知识与艺术性内容将会是人的生产力解放后新的内容增长点。在这个过程中,人的主要作用是给机器设置创作方向,发出提示,但算法会用自己的方式对这些提示进行解读,基于自己掌握的数据素材进行内容呈现,这也是对人的意图的转义。


在信息再加工方面,以往以人为主体的工作越来越多转向智能机器,特别是多来源信息的整合、知识图谱的梳理、逻辑化的呈现等,以往在信息再加工方面不能充分满足用户的情况也会发生很大改变。这个过程,显然也包含着机器的多重转义。虽然机器处理的效果并非总是理想的,甚至出现了错误的转义,但人未必总能识别。


机器自动生产内容与人生产内容的原理不同,依赖的资源有差异,转义的机制也不尽相同,智能技术在平台内容生产广泛应用之时,会引发很多新问题。它涉及到的责任主体,也不只是智能应用的使用者或平台的运营者,还包括智能应用的开发者。


2.“人-物-环境”三个维度构建新用户


今天当我们说到用户,都是指人,用户数据都是指人的数据。但随着各类智能物体、传感器的应用,人将越来越多地与智能物体产生关联,并形成一种“共生关系”。对人的状态与需求的测量与分析,将不仅仅靠传统意义上的人口统计变量或用户行为等数据,与人相关的物的数据、人与物的关系,也将成为描述、理解用户的新维度。借助智能物体,人所处的环境也得到更多维度的监测,环境变量也成为理解用户行为、需求的要素。因此,智能平台的用户,会是人、物、环境共同构成的一个系统,用户数据是多重数据的集成。要成为智能平台,不仅需要掌握“人”的相关数据,还需要获得与人相关的智能物体及环境数据。


物与环境数据的加入,会使人的行为与需求得到更充分的认识。但更精准的数据化分析,也会给人带来更多的风险,数据收集、存储与加工的伦理问题,在未来会变得更为突出。


3.人-机互动改变平台的“社交关系”要素


在今天的社交平台中,社交关系与内容是两大发展要素,社交关系是内容生产的驱动器,内容是关系的润滑剂,两者相互激发。而社交关系是更基础的动力因素。社交动力出现停滞,就会影响到内容的可持续性发展,也影响到整个平台的活力。目前一些社交平台中的社交动力下滑,正是其面临的一个发展障碍。


在其他的一些平台中,社交关系要素同样重要,即使是所谓的单纯的内容平台和电商平台,其实也在大力推动用户的社交行为,提高社交黏性。


未来的智能平台发展同样需要社交关系的动力,但“社交关系”的含义却会发生一定变化。社交不再只是人与人的互动,也会包括人与机器的互动。


与人产生互动的机器,既可以是像ChatGPT这样没有实体形象的机器,也可以是拥有各种外貌的虚拟数字人。它们的外貌可能是现实亲朋好友或名人的复刻,也可能是完全虚构甚至按需定制的。虽然人与机器的互动与人际互动还会存在本质差异,特别是难以提供在现实社会生存中所需要的社会资本,但至少在一段时期内,一些人会享受人机互动的乐趣,并且可能因此在一定程度上减少与真实人的互动。


智能平台提供的人机互动方式,互动给人带来的满足程度,都是影响其可持续发展的因素。但只有人机关系的平台,会带来个体的进一步自我封闭与社会的离散,如前文所说,智能平台不能只把注意力放在人机互动的开发上,还需要促成人机互动与人际互动之间的平衡及连通,在不增加用户负担的前提下,为用户提供开放的社交环境。


4.内容生产者与用户之间的连接趋向弱化


今天的平台汇聚了内容的生产者与消费者,承担着同步培育生产者和用户以及促进两者之间的连接、互动的任务,平台的内容分发算法也是以实现这样的目标为核心。但ChatGPT等技术则淡化了内容生产者与用户之间的直接联系,内容传播效果不再以流量数据的方式体现,用户也很难判断单一内容生产者的质量或对内容生产者做出直接反馈。


在未来的一些智能平台上,内容生产者可能不再存在。因为内容资源来源于各种其他平台,平台本身不需要直接生产原创内容。


内容生产者与消费者之间的连接弱化,不但对内容生产者是一个挑战,也使用户在内容生产中的作用被削弱。虽然表面上他们也能与机器进行互动,对机器生产的内容进行批评与反馈,但这主要是用于对机器的“调教”,对公共信息生产的贡献有限,或者作用较为间接。


今天社交媒体的分布式新闻生产模式,虽然带来了碎片化等问题,但总体来看,是集聚群体智慧、融合专业与业余力量的一种方式,而在ChatGPT等技术模式下,这样的模式可能难以实现。未来的智能平台要促进公共内容特别是新闻内容的有效生产,不能单纯依靠ChatGPT这样技术,还需要探索新的技术模式,特别是要改变内容生产权力过多地向机器集中的倾向。智能机器的目标,应是通过与人的协同来汇聚人的力量,而不是削弱甚至取代人的力量。


智能平台兴起引发的权力变局


可以预见的是,如果智能平台兴起,它将对现有的各类平台造成一定冲击,也会在多方面引发权力格局的震荡。


(一)数据加工权力向少数平台的集中


何塞•范•迪克将平台分为基础设施平台和行业平台两类。其中的基础设施平台主要提供搜索引擎和浏览器、数据服务器和云计算、电子邮件和即时通信、社交网络、广告网络、应用程序商店、支付系统等服务。未来的智能平台可以同时提供多种基础服务,在很大程度上也会成为基础设施型平台,这些平台的权力主要来自于其算法模型开发权力和数据加工权力。


新的智能平台,一方面拥有自身的用户数据(特别是用户与智能机器互动形成的数据),另一方面可以通过语料库的方式,获得其他平台的数据。因此,有研究者担心,作为一种基础性平台,生成式人工智能将会沦为互联网寡头的网络集权工具。互联网平台及其背后的技术寡头作为知识的生产者,产生了集权化倾向。


智能平台的权力也会体现为对语料库的选择权力,虽然模型的原理一致,但不同的语料训练会产生不同的结果。那些想进入语料库的内容生产者,也不得不顺从平台的规则。


(二)媒体权力被进一步侵蚀


平台权力不断强化的同时,包括媒体在内的内容生产者的权力则会被进一步削弱。在ChatGPT等生成式人工智能技术的内容生产模式下,人们获得的信息往往是进入语料库的多个信息源内容的综合,信息源本身的独立性和内容质量的重要性被淡化,内容的阅读量等数据也会被淡化。这种依赖群体而非个体信息源的模式,虽然对用户可能是好事,但对媒体的品牌及影响力维护却是一个挑战。


尽管媒体还可以通过自建渠道来进行内容的传播,彰显自身的存在感与价值,但如果用户越来越多地依赖人机互动的个人门户进行信息获取,他们是否还需要通过媒体渠道获得信息?如果需要,媒体渠道应该为他们提供哪些信息?媒体要充分理解这些问题,才能找到智能时代自己的独立渠道的生存之道,但完成这一任务也会困难重重。


另一方面,媒体也不可避免地要利用智能分发平台来提升内容的再传播、再利用价值,这也需要理解这些技术的内在逻辑,努力使自己生产的内容进入相关应用的语料库。像新必应这样的搜索引擎在给出答案的同时,也会给出生成答案依据来源的主要链接,这些链接也有助于凸显其信息源的独立性。对媒体来说,也要力图通过优化策略让自己的内容进入到各种答案并力争成为主要参考资源,这同样需要对相应技术的具体工作原理有着深层的理解。


就像现在的网站往往通过SEO(搜索引擎优化)来提高传播面一样,未来媒体也需要专门研究智能分发渠道的应用策略,提高其内容被机器采用、传播的效果。如果能与智能模型的开发者进行合作,则可以进一步从源头来影响内容分发的模式,提升自己在模型中的权重。但这些策略也是媒体权力被削弱之后的无奈之举。


每一次新媒体技术的发展,都是对媒体自有传播渠道及其权力的一次侵蚀:门户网站的兴起,对媒体渠道产生了分权;社交媒体的发展,更是动摇了大众传播的基本模式,传统媒体不得不向大型的商业社交平台聚集,自营渠道再次萎缩;移动时代算法分发主导的内容平台,同样对媒体的新闻客户端产生很大的分流。今天媒体再次面临着来自智能技术的分权威胁,甚至其作为独立的信息源的角色与价值也会被削弱。


媒体渠道与话语权不断被削弱,使得媒体的营利手段与能力日益削减,特别是广告这样的营利模式将越来越远离媒体,媒体的生存危机将愈加严重。


虽然新媒体时代用户仍然需要高质量内容,但市场给予媒体这样的专业内容生产者的话语权越来越小,其生存越来越难。这或许不仅仅是媒体的困境,也是技术发展过程中人类所面临困境的一种体现。


(三)知识化、艺术化表达推动用户权利与权力的流动


对于平台中的用户来说,智能技术也会带来权利与权力的流动甚至洗牌。


社交媒体赋予了用户表达权利,这种表达权也有可能转化为公共空间的影响力或话语权力。但在不同阶段的社交平台中,人们表达的门槛与手段在不断变化,表达权利转化为话语权力的手段与资本也在变化。以文字表达为主的论坛、博客、微博阶段,社交媒体的话语权仍然集中在受过良好教育的精英阶层。移动视频的兴起,则使得普通人拥有了更多话语权。


而智能技术则会推动个体权利与权力的流动,特别是在知识和艺术这两个以往门槛较高的内容领域。


在知识领域,智能技术将在知识获取与知识生产、应用两个方面同时影响用户的权利、权力。


从知识获取权利角度看,今天当人们主要通过社交媒体获取信息和知识时,会在较大程度上受到他们所处的关系网络或社交圈层的影响,不同阶层的人获得的信息和知识仍有很大落差,表面平等的权利在实践中未必能带来平等的收益。新的智能平台的出现,则可以打破人们的社会关系的约束,为不同的人提供相对平等的知识。


在知识生产角度,有研究者认为,以GPT为代表的大模型技术,会产生一种内在的知识赋权效应,每个个体只要掌握了一定的提示工程技巧和能力,就可以利用大模型生成巨量知识,进入知识生产的中心。这种新型的知识生产明显是去中心化的。同时,在知识上人们会附着更多的价值观、愿景及深度思考。有了这一前提后,知识就会成为人们的重要表达手段。掌握了智能化知识生产与表达手段的普通个体,也会因此拥有更多的权力。


以往在知识拥有方面具有优势的群体,如学者、教师等,则会遭遇袪魅或权力削弱,虽然其中的佼佼者在未来仍会保有自己的价值,但那些平庸的人则可能会被挤出行业。一些传统教育模式、学术研究模式也会受到挑战。但研究者也担心,“知识中产”在人类传统的知识生成秩序中发挥着重要的基座功能, 当智能技术大模型变成一种普遍性的生产力工具后,会在一定程度上削弱知识中产的意义,导致知识的世俗化甚至庸俗化


智能化知识生产带来知识的庸俗化,不仅源于它对知识中产阶层权力的挤压,还在于它对人类平均知识水平的影响。后文将进一步分析。


在艺术领域,智能化技术会推动艺术化的日常生存与艺术化表达。AIGC等技术的发展,则可以帮助人们完成绘画、小说与诗歌、音乐等更高门槛的艺术创作。当艺术创作引入到日常生活后,艺术创作的原创性、突破性未必显得那么重要。普通人更关注的是,如何利用艺术创作这一新的手段来改善日常生活的质量,丰富自我表达与社会互动。但AIGC并非自动创作,它也需要人的参与,需要人下达指令或给予提示,看上去简单的提示,蕴含着人的想象力。拥有更多想象力,能更好地指挥机器进行创作的人,也会获得更多被“看见”的可能。


但日常生活的艺术化是否意味着人们最终会被“麻痹化”,艺术的独有气质是否会在日常生活的磨蚀中消失殆尽?人们未来究竟是会过上更艺术化的精神生活,还是会走向艺术旗号下实际更加物质、庸俗的生活?这些问题仍然需要时间才能回答。


(四)机器对人的认知控制加强


智能平台一旦兴起,将意味着人工智能进入日常生活,它们会极大改变人与机器之间的权力关系。虽然在很多时候人可以利用机器来提升学习、生活和工作能力,但伴随这种能力提升的深层风险是机器对人的认知控制的加强,这是机器新的权力表现。


这种控制首先体现在信息的深加工方面。


在智能时代之前,信息的生产是由人来完成的,无论是专业媒体还是自媒体或普通用户,这既包括信息的初级生产——原创性生产,也包括在此基础上进行的再生产——整合与加工。对普通用户来说,在海量信息时代,他们越来越多地需要信息的精加工,但由于自身能力或时间精力的限制,普通人又往往会将信息加工的任务寄托于媒体或他人。


智能时代,虽然信息的初级生产仍然主要来自人,但信息的加工生产却会越来越多地来自ChatGPT等技术,而当人们越来越多地依赖于机器加工后的信息时,技术对人的认知过程的影响必将日益广泛、深入,甚至对很多人而言会控制他们的认知水平。


今天的用户可以通过各种方式参与内容生产,或与他人进行互动,用户之间的相互启发、补充,也是扩展人们认知的一种方式,但未来当人们习惯于从机器那里获得信息时,他们参与内容生产的动力会削弱,与他人的互动会缩减,从他人那获得的认知启发也减少。


ChatGPT或类似技术,不仅会控制个体的认知,也会在整体上影响人类的认知水平。刘海龙指出,智能技术在整体上构建了一种新常人。一方面,为了追求生成内容的稳妥和尽可能“正确”,AI的回答一般会像“常人”那样四平八稳,这是海德格尔所说的“常人”的那种没有锋芒、缺乏个性和本真性的特征;另一方面,这个常人又超出了海德格尔那个平庸的“常人”,它的渊博程度和推理能力又超过了常人的平均值。因此这样一个存在物可以称之为“新常人”。当越来越多的人通过这样的“新常人”来获取信息与知识,看上去他们的能力提高了,但实际上他们的认知视野、认知方式仍在一定程度上受制于这样的“新常人”。


在更深的层面,智能技术也会通过知识的新生产模式影响人们的认知能力与思维方式。


今天的研究者对于人工智能能否生产知识,以及所生产的知识的价值,存在着不同看法,而产生分歧的原因之一,是人们对于知识本身理解的差异。有研究者指出,运用智能技术获得的知识,本质上是基于具有不同算术深度和逻辑深度的语言所产出的知识结果。按照哲学家波兰尼的分类,它是明确知识(即以书面文字、图表和数学公式加以表述的知识)中的一种。而与明确知识相对应的是那些未被表述的知识,像我们在做某事的行动中所拥有的知识,是默会知识,机器虽然目前难以拥有默会知识,但它在明确知识的生产方面开辟了新的路径,这种路径的基础是数据分析。


也因此,研究者也会担心,AI技术遮蔽掉了语言表达中无法被数字化的部分,而这一部分恰恰是知识生产中不可或缺的。如果我们过度依赖AIGC(人工智能生成内容)的知识生产,无疑将人类对自身知识掌控的权力也让渡给了AI。当AIGC的知识生产追求着对确定性和唯一性的认识时,人类知识的无限可能性被扼杀了。


虽然机器在某些类型的知识生产方面的确有优势,甚至可能提供一些全新的知识养料,但人是否必然享受到这些知识成果,将机器生产的知识养料转化为自身的能量?或许未必,甚至人们可能会出现知识消化能力的退化。在人的自主知识学习中,往往需要理解知识的背景,寻找知识碎片之间的关联,辨析知识碎片的价值,梳理、拼贴纷繁的知识图谱,在获得知识的过程中提高认知能力,这是一个“细嚼慢咽”和缓慢的营养吸收过程。而当机器可以快速给人们提供各种答案时,人们的知识获取会越来越多地变成填食,所获得的更多的是快餐式、碎片化的知识,是表面的“知道”,而非深层的能力,即使产生了知识“增肥”的效果,也只是“虚胖”。


一种更长远的忧虑是,人们可能因为过度依赖人工智能而导致将其视为知识权威、道德权威乃至精神权威等深层次的认知幻象。今天一些研究者将智能机器出现错误而不自知的情况称为机器幻觉,但与其说这是机器的幻觉,还不如说这是人的幻觉。机器本身没有意识,也就无所谓幻觉,只有人对机器能力过分膜拜,或无法判断人与机器的差异,这才是幻觉。


除了信息与知识方面的影响外,过于智能化的管家,也可能会在一定程度上导致人们的判断力、决策力与行动力的下降。


本文基于ChatGPT等技术的走向以及用户需求预言人机互动的个人门户的出现,以及智能平台的兴起。这些预测未必一定都会变成现实,但无论如何,智能技术趋势下整个互联网的变局必然发生。这不仅会体现在各类平台之间的权力再分配,也会体现在人与机器之间权力关系的变革。一种可能的前景是,机器以及掌握着机器的人或机构的权力会不断上升,越来越多的人则会受制于机器,对此我们需要及早反思与防范。


编者按:

来源:新闻界;

作者:彭兰,中国人民大学新闻学院教授,CTR媒体融合研究院专家;

内文有删节。


延伸阅读


继续滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存