查看原文
其他

赵子忠等:原子力与平台化,智能媒体的发展理论与模式 | 德外荐读

德外5号 2023-04-12

The following article is from 青年记者杂志 Author 赵子忠 等


研究发现,智能媒体原子能力是业界非常重视的概念,“聚变”和“裂变”是人工智能原子能力发展方向。


从生态格局演进趋势来看,智能化的新型主流媒体和头部互联网公司,是智媒新生态的关键引领力量。主流媒体正处于媒体深度融合的重要阶段,智能化发展是其战略方向。


近年来,人民日报、新华社、中央广播电视总台等多家媒体积极拥抱人工智能,持续探索利用人工智能技术提升技术能力,创新内容生产、建设运营体系与服务体系,扩大用户规模,不断推动智能化应用创新,打造开放共享的智媒新生态。


编者按:本文梳理了智媒体发展的七项“原子力”技术、八类人工智能平台模式,及应用案例,推荐业内同仁阅读参考。



智能媒体理论回顾与理论分析


回顾智能媒体的相关学术研究,是探索智能媒体理论发展过程,把握主要智能媒体研究理论的基础。本文以“智能媒体”为主题词,以“中文核心期刊”和“CSSCI”为纳入标准检索知网CNKI数据库,对智能媒体的文献做了梳理和分析。检索年限为1997年至2022年12月,共检索到430篇文献。在知网搜索到的最早关于智能媒体的文献,是1997年发表在《世界标准化与质量管理》杂志上的消息动态,题目叫《FIPA加速智能媒体的标准化》。


智能媒体论文发表时间大致可以分为三个阶段,第一阶段是2000年-2015年,从搜索引擎到社交化网络,智能媒体的发文数量每年都有1-2篇;第二阶段是2015年-2018年,智能媒体的研究进入快速增长期;第三阶段是2018年-2022年,智能媒体的每年论文数量大约在60-80篇。


通过统计发现,“智能媒体”“人工智能”“媒体融合”是出现频率较高的关键词,累计占比32.53%,关于“智能时代”“智能传播”与“大数据”也是较为热门的研究领域。


我们对上述的智能媒体理论进行了研究,发现理论探讨和分析的角度是不同的,展望下一阶段智能媒体发展,有四种理论非常值得大家进行思考和探讨。


(一)人机传播理论


人机传播理论,是对于智能媒体发展的重要理论思考,在原有的互联网模式中,我们研究的主要是人与人之间的传播,到了智能媒体阶段,我们需要面对人与机器的传播问题,人机传播作为全新的传播形态,计算机成为一种值得关注的传播主体,人工智能与人进行信息的传递,人与机器的交互可能会从简单的界面交互,进一步发展成为情感、情绪的交互。


牟怡、许坤(2018)在《什么是人机传播?》中,探讨了人机传播领域前沿研究的三个领域。第一个领域,计算机社会行动者范式,“计算机社会行动者”范式,是斯坦福大学的 Clifford Nass 以及他的同事从一系列人机互动实验得出的理论结构。第二个领域,媒体等同理论,这个理论被大量地运用于人与机器人的交互上。第三个领域,从交互界面研究到人机交互研究,原先的交互研究主要是人和机器交互界面的研究,近期,研究者主要从智能媒体技术出发,将人类的特征作为社交化机器的特征,研究机器的人机交互程度。比如对社交机器人陪伴效应的研究。


人机传播在智能媒体中的表现,主要体现在两个方面。一个是智能型助手,智能型助手具备强大的信息管理分发能力,可以帮助人更好地实现信息处理。另一个是情感性助手,智能媒体不断提高情感传播的能力,能够有效实现社交化的情感、情绪陪伴。


(二)人工智能生成内容(AIGC)


人工智能生成内容(AIGC),是继PGC、UGC后,利用AI自动生成内容的生产方式。从业界来看,互联网公司纷纷推出了AIGC平台及服务,腾讯打造了写稿机器人“梦幻写手”;阿里巴巴推出了AI在线设计平台Lubanner,帮助营销人员生产Banner;字节跳动的剪映、快手云剪都能提供AI生成视频;网易推出了AI音乐创作平台“网易天音”等,可以看出,AIGC是智能媒体时代的重点应用创新。


关于AIGC,李白杨(2022)在《人工智能生成内容的技术特征与形态演进》中,提出了AIGC四大特征和三大发展阶段,其中四大特征是:第一,AIGC对巨量数据进行处理演算后才能生成内容;第二,AIGC可以批量化,体系化生成丰富的内容;第三,AIGC数据来源于无人机、摄像机、物联网等设备收集多模态数据;第四,认知交互力,AI为人机交互带来更多可能性。


AIGC的三大发展阶段是:模型赋智阶段:AIGC利用AI技术构建模拟现实世界的数字孪生模型;认知交互阶段:AI能够学习并创作更丰富的内容;空间赋能阶段:AIGC基于物联网,多模态技术获取多维信息,实现更加智能的人与机器互动。


(三)多模态数据处理


随着文字、图片、视频、音频等多媒体信息形态的发展,多模态数据处理成为了重要的热点理论。任泽裕、王振超等人在《多模态数据融合综述》中,提出了多模态数据处理的具体四大应用场景:多模态视频片段检索,综合多模态信息生成内容摘要,多模态情感分析,多模态人机对话系统。


新兴媒体的不断发展,推动了业界的需求。比如,搜索引擎的发展时期,推动文字的信息处理飞速发展,关键词成为行业重要的信息概念。社交媒体的发展时期,用户对于图片和照片的分享,增加了图片的信息数量,“有图有真相”成为了金句。最近五年,随着短视频平台的发展,抖音、快手等平台公司推动了短视频信息数量爆发,给信息领域增加了视频类型。海量的各种模态的数据对于智能化信息处理提出了新的需求,智能技术需要解决跨模态的信息处理问题,多模态数据处理就成为新的热点理论。


(四)人机共生与人机协同


5G互联网发展与研究过程中,有一个概念影响了整个行业,这个概念叫做“人机共生,万物互联”,描述出了非常富于想象力的场景。在这个场景中,随着5G技术群和人工智能技术群的发展,“人机共生”将会成为重要的研究课题。


在人机共生成为越来越普遍的现象以后,“人机如何共生”成为智能媒体发展中重要的社会伦理问题。“人机协同”概念,探索解决人机共生中存在的问题。人机协同将经历三个阶段,初级阶段,人工智能机器辅助人们进行简单的内容生产;中级阶段,人们设定算法程序与机器协同工作;高级阶段,实现人机共生。


喻国明(2017)等在《新闻人的价值位移与人机协同的未来趋势》中提出,人机协同将成为未来传媒生产的主流模式。机器新闻写作还离不开新闻记者的把关,特别是在重大而敏感的议题上更是如此。杜娟(2019)在《从“人机协同”看人工智能时代的新闻伦理构建》中提出,根据 “工具理性”和 “价值理性”的概念进行考察,“人机协同”概念强调了未来技术发展对新闻业的更高要求,其伦理学内涵也为突破人工智能时代新闻伦理的困境提供了一种哲学路径: 构建人机之间平衡和谐的关系,以人类的智慧让人工智能在新闻实践中 “物尽其用”,是未来努力的方向


对于“人机共生”与“人机协同”的理论,业界和学界也有着深深的忧虑和担心。学界关于人机协同的平衡讨论较多,认为机器会愈发智能,成为新的主体。喻国明提出依赖机器生产会导致回音壁效应和黑天鹅事件,成为现实的伦理风险。杜娟表示机器生产中人的主体性缺失,会导致新闻缺乏道德和社会关怀。 

智能媒体的原子力


讨论智能媒体研究,“智能原子力”是一个非常重要的思想。在对多家互联网企业调研的过程中,人工智能平台强调的人工智能技术能力,都强调了“智能原子力”这个概念。


什么叫原子力呢?原子的力量有两个,一个是“聚变”,一个是“裂变”,聚变和裂变都会推动整个生态的蓬勃发展。人工智能平台提供的是具有标准化、复用性、可扩展、可授权、可定价等特点的人工智能工具。原子能力代表各维度能力之间深度的交流和联合,能力相互关联从而迸发如原子聚变般的效果,促进媒体智能化发展。智能媒体依托于各项原子能力集成于智能媒体平台,以云化、数字化为基础,以智能化为核心。


(一)人脸识别技术


人脸识别技术是智能媒体的原子力之一,是目前市场应用较为广泛的人工智能技术。我们可以在火车站、飞机场、酒店、办公楼等地方看到应用的基本场景。人脸识别技术是基于面部分析技术,提供包括人脸检测与分析、比对、搜索、验证、五官定位、活体检测等多种功能。


张溪瑨(2022)提出该技术可用于识别照片,视频或实时人物,其工作流程主要包括五个步骤,即图像采集、人脸检测、特征提取、数据库比对、身份识别。与传统生物特征识别技术相比,人脸识别技术具有自然性,非接触性,不易察觉性,并发性。


人脸是重要的智能识别内容,和脸相关的事情都是人们关注的,人脸本身就具备原子力。关于脸的热词叫“颜值”,如何在颜值上下功夫,做应用,是人脸识别具有原子力的方向之一。在短视频平台上,颜值这个功能就被放大了,互联网公司把人脸识别技术应用到颜值上,取得很好的效果,抖音、快手基于人类面部进行捕捉形成特效滤镜。


(二)智能人体识别


智能人体识别,是人工智能应用中一个重要的部分。梁绪(2022)认为人体行为识别的关键是提取行为特征,与图像空间中的特征不同,视频中人的行为特征需要描述人在图像空间中的外观,提取外观和姿势的变化,即从二维空间特征扩展到三维时空特征。


国家跳水队的AI教练,就是智能人体识别技术原子力的体现。AI教练需要将跳水全过程和场馆场景进行三维再现。从可视化到量化,从二维平面到三维立体,是运用了3D视觉技术以及深度神经网络,从2D视频中估算出运动员的三维姿态,并将跳水全过程进行三维再现,实现定格分析与量化评估。


动作捕捉技术,也是智能人体识别的另外一种应用。《阿凡达2》这部电影以水下场景为主,演员们用一种新的水下表演捕捉形式,将水下拍摄和表演捕捉结合在一起,即是水下动作捕捉系统的应用。


(三)OCR(光学字符)文字识别技术  


OCR文字识别技术是一个多模态应用处理的重要工具,它能够把图文和视频转化成文字,把多模态变成了文字的一种方式。OCR文字识别技术的原子力是做减法,把复杂的多模态变为成熟简单的智能文字处理。


智能媒体应用中,我们在处理视频时,OCR可以将提取到的信息进行分类,针对节目视频图像中的字幕区域的文字内容进行OCR自动识别,并形成文本数据。


区分出标题、字幕、滚动字幕和广告等,根据综艺、体育、新闻栏目等视频的特色,使用图像目标检测技术,设计并定制化地检测出图像中的标题、字幕、滚动字幕、信息、广告、文档和背景文字这几类,通过这些应用,把视频处理能力转变成了文字处理能力。从安全播出的角度看,可以对字幕区域的文本数据进行敏感关键词的过滤,确保文本字幕不会出现影响安全播出的禁忌词语。


(四)智能视频技术 


智能视频技术近几年得到了高度重视,这和互联网短视频行业的快速发展分不开。抖音、快手等短视频平台采用了用户生产内容(UGC)模式,每天用户上传的短时频条数为1500万到2000万条,海量的短视频内容推动了智能视频技术的应用和发展。


智能视频技术包含视频生产技术、视频采集技术、视频传输技术、视频解码技术、视频存储技术以及视频应用技术。智能视频剪辑编辑是应用非常多的方向,多种智能剪辑编辑技术提供了大量的剪辑编辑模板,可以将长视频或原始视频素材进行智能拆条,生成为短视频内容。


“横屏转竖屏”也是智能视频的应用,电视媒体原来有着大量的横屏素材,现在也在生产着大量的横屏节目,智能化“横转竖”功能,能够让电视节目和手机节目顺利转化,实现大小屏节目共用。如2022央视春晚首次在央视频App和微信视频号进行了竖屏直播,春晚摄制团队安排了多个专门的竖屏机位进行拍摄,而不是机械地把横屏转竖屏,并实现高清、4K新媒体信号现场混合制作播出,以及横屏、竖屏的统一切换。


(五)智能语言技术


智能语言技术在媒体中的应用比较早,典型的应用是“关键词”。互联网海量数据的大发展,特别是文字生产发布存储的数量增加,使得自然语言处理技术得到了快速发展,搜索引擎就是智能语言技术原子力的具体体现。何苑(2022)在自然语言技术的智能传播应用与风控分析中指出,自然语言处理(NLP)技术涉及语义分析、知识图谱、机器翻译、信息检索和过滤、语音识别和情感分析等不同方面。


搜索引擎就是对智能语言技术这种原子力的一个很好应用,能够从文本中自动提取出若干个反映文本主题、话题、实体等方面的关键词或短语,为个性化推荐、话题聚合、电商推荐等应用场景提供技术支持。


其一方面能够精准识别并理解文本,精准识别文本内容,智能分析文本结构,准确理解文本含义;另一方面能自动提取文本中的关键词,自动提取若干个反映文本主题、话题、实体等方面的关键词或短语,灵活设置提取的关键词数量,在媒体中常用于新闻个性化推荐。


智能翻译是智能语言技术的原子力体现,通过对于不同语言的分词、语意等智能分析模式,进行词语、句子、语法、语态、语义、情感等内容的处理,进行自然语言的算法和处理,如百度使用的人机共译。


(六)智能语音技术 


智能语音技术主要由语音识别技术(ASR)和语音合成技术(TTS)两大技术板块组成,包括语音识别、语音合成、音频理解以及音乐智能四个应用模块,《中国智媒体融合发展报告(2022)》认为其主要能力是使智能机器可以用听觉感知周围的世界,用声音和人做自然的交互,让操控机器和智能生活更为便捷。


AI智能配音就是一种较为常见的原子力应用。利用AI系统所训练的语料资源库,基于强大的智能语音技术,一键生成个性化配音,高效合成输出。无论是普通话、方言,还是不同口音的外语,只要是在AI资源库中的资源将会直接生成所需的配音内容。甚至可以通过提前录入干音,形成千人千声的定制配音。


(七)智能图像技术 


智能图像技术包括:图像采集,图像分割,图像比对,图像预处理,目标识别和分类,目标检测和跟踪,目标定位和测量。具有智能图像处理的机器视觉,相当于人们在赋予机器智能的同时为机器安上了眼睛,使机器能够“看得见”“看得准”,可替代人眼做测量和判断,使得机器视觉系统可以实现高分辨率和高速度的控制。


在以上智能图像技术中,智能图像中的目标检测与追踪技术也是有原子力的。应用在媒体内容监测的时候,通过数据集的训练建立审核目标的模型,针对画面中的目标元素进行追踪,对于图像及视频中的不恰当、有争议或违法内容等进行识别检测,进行标注和报警,以进行过滤和处理,可以大大减少人力的投入。


智能媒体平台化与智能聚合


智能媒体的发展,正在从流程化转向平台化,通过人工智能平台完成信息的重新聚合。智能媒体的一个发展方向是媒体平台和媒体流程的智能化,主要是在媒体现有业务流程各个环节增加人工智能模块。


媒体行业重点研究的方向,就是从新闻写作到图文创作、视频创作、智能分发和智能审核等全流程的智能化,这个模式在于提高原有媒体的采编存播发的效率。智能媒体领域还有一个另外的发展方向,即智能平台的媒体化。依托人工智能技术体系,建立创新媒体人工智能平台,通过人工智能赋能的方式,实现创新的智能媒体生态,从而重新聚合内容和受众


(一)智能文字创作平台


智能文字创作平台,是依托自然语言处理技术,通过知识理解、智能知识图谱平台、智能文档分析,形成的规模化的语言文字处理平台。智能创作平台,要完成文字的情感分析、观点抽取、关系抽取、自然语言推断、事件抽取、机器阅读理解等一系列功能。郝俊慧(2021)认为,智能创作平台从开始的开源框架发展到如今能够新增大量科学计算API,支持超大模型训练的端到端自适应大规模分布式训练技术,全流程加速了创作任务。


智能文字创作平台能够处理包括写新闻、写小说、对对联、写功课、写歌词等工作。主要是基于知识增强的多范式人工智能创作,通过自编码网络和自回归网络融合在一起进行预训练,自编码网络采用多任务学习增量式构建预训练任务,持续进行语义理解学习,通过新增的实体预测、句子因果关系判断、文章句子结构重建等语义任务,自回归网络结构,支持长文本语言模型建模。多范式的统一预训练模式使得智能媒体平台能够理解任务、生成任务和零样本学习任务。


媒体机构智能化写作平台,主要还是用于财经、体育、天气等一些特定的领域,人工智能平台工具可以提高内容的生产效率,简化繁杂的固定信息整理过程。比如新华社推出的智媒体融合平台,基于媒体大脑30余款机器人,为内容工作者提供“策、采、编、发、审”全流程产品,为宣传系统、媒体机构、 企事业单位的融媒体中心提供便捷、高效、智能的内容生产平台。平台支持多种部署方式,可以整体规划新建融媒中心,也可以在已有融媒平台的基础上新增模块或者升级功能。


(二)图片智能创作平台


图片智能创作平台,也被称为智能视觉创作平台,可应用于工业设计、动漫设计、游戏制作、摄影艺术等场景,激发设计者创作灵感,提升内容生产的效率。通过简单的描述,模型便可以在短短几十秒内得到图像,极大地提升了设计效率、降低了商业出图的门槛。


图片智能创作平台,把场景图知识融入视觉-语言模型的预训练过程,学习场景语义的联合表示,显著增强了跨模态的语义理解能力。包括视觉常识推理、视觉问答、引用表达式理解、跨模态图像检索、跨模态文本检索等多项典型多模态任务。


比如百度文心大模型中的图形处理平台,ERNIE-ViLG开放API平台,可以实现文字生成图片,也可以实现图片生成文字。用户在文字生成图片的专区,通过自定义输入文本,实现古风类型图片、二次元图片、油画、未来主义风格图像,也可以生成方图(1024x1024)、长图(1024x1536)、横图(1536x1024)等不同分辨率尺寸的图片,平台会根据输入内容自动创作出符合要求的图片。


蓝色光标销博特平台,强调AI作画领域各平台都有自己的风格,定位于 “康定斯基模型”,其生成画作的风格更偏向“康定斯基”的“热抽象”。“热抽象”,也称为抒情抽象或感性抽象,通过无规律的色彩组合、自由的点线面关系和空间布局,来抒发感情,表达某种意趣、意念、幻觉等。用户输入一个文本,“康定斯基模型”会自动对文本进行元素处理,打好标签,再根据标签元素调取数据库素材,匹配相应图片,并对图片场景进行联想,通过后台算法对需要表现的情绪进行推算,从而依据元素、构图、画风进行“康定斯基”式的风格创作。


(三)智能视频创作平台


随着短视频行业的发展,“视觉互联网”时代的概念被提了出来,人类社会将加速步入“视觉互联网”时代,视觉数据也将随之迎来“大爆炸”,智能开放平台、智能视频创作平台和AI超算中心、AI芯片成为“视觉互联网”的新商业基础设施。


智能视频平台主要是指通过视觉场景及物体识别、OCR文字识别、自然语言处理等人工智能引擎,再结合大数据和云技术,高效准确地对目标媒体资源进行视音频内容的记录、传播和运营,打造高度完善的智能中台、内容中台及数据中台。


比如腾讯优图实验室的智能视频平台,覆盖全流程视频智能处理,包括视频画质检测、视频画质增强、高清底码、老片修复、视频DNA等应用场景。腾讯云智能视频处理包含三个重要应用:智能超分、老片修复、智能转码。智能超分应用通过对视频进行高码率转码/编解码,并且对画面细节有更流畅生动的还原与升级,实现对于视频分辨率、帧率、清晰度、流畅度等各维度的品质提升。


智能转码应用支持视频文件的智能编码和处理,提升观众观看体验,降低播放成本,提高视频传输效率。老片修复应用通过对视频进行智能分析,利用AI画质修复和增强技术,去除失真,提升质量。   


(四)智能语音交互平台


智能语音平台指的是以语音交互为核心的人工智能开放平台,集合了多种智能语音技术。在智能语音交互平台中,平台提供了全语音操作,启动服务、录制语音、查找内容、打开内容、关闭视频等功能,通过智能语音交互的操作,不需要通过鼠标点击或者滑动屏幕等方式进行操作。


喻国明(2019)提出,智能语音媒介平台核心竞争在于其平台所能提供的个性化产品和服务。服务的能力包括智能家居的生态体系建立,与第三方产品对接的能力,内容产品的提供能力,用户个性化服务等。更进一步而言,就是用户是否能够以智能音箱作为入口,在生态级的互联网平台上满足基本的日常所需。


百度的“小度”是智能语音交互平台,度儿智能操作系统(Dueros)整体设计架构分为三层:中间层为对话系统;最上层为智能设备开放平台;最底层为技能开放平台。


其中智能对话系统作为Dueros的核心层,涵盖了从语音识别到语音播报再到文字上屏显示的一个完整交互流程,在其背后是支撑交互的自然语言理解、对话状态控制、自然语言生成、搜索等核心技术。这些技术支撑着两个平台,一个是智能设备开放平台,一个是智能技能开放平台。


智能设备开放平台是应用层,主要体现为包括核心接入组件、麦克风阵列、芯片模组等开发套件,以及结构设计、工业设计、音腔设计在内的参考设计方案。技能开放平台是能力层,主要面向开发者,开发者可通过平台提供的技能工具,创建并发布基于Dueros的技能。


央视网和百度共同打造的语音平台,能够和用户进行语音互动,如当现场观众发出指令“我要看昨天晚上的新闻联播”,就能直接播放晚上的新闻联播节目,这种功能非常方便快捷,体现了智能语音交互平台的应用能力。


(五)智能媒体审核平台


智能媒体审核平台是指,通过机器学习结合深度学习,为媒体提供音视频、图片、文本的内容审核服务。支持直播和点播两种送审方式,主要涉及涉政、色情、暴恐、违禁、广告等审核场景,支持人工复审,提高音视频内容审核的效率,降低人工审核漏审风险,缩减平台的人力成本。支持对用户账号的权限管理和配额管理。


姜波(2018)认为人工智能平台的引入可以彻底改变传统的内容审核形式,实现对互联网内容信息的实时审核。无论是审核效率还是审核精度,都将得到提升。运用大数据分析、人工智能技术对数字内容审核、过滤方式进行革新,将高科技与传统编审机制进行融合,会实现内容审核领域的人力密集、 脑力密集向创新密集、技术密集转型升级。


2019年,人民网发布的深度融合发展三年规划纲要中提出,将研发基于人工智能的“风控大脑”,旨在以人工智能技术为核心引擎,构建对海量全媒体数据的高通量感知、智能理解、深度挖掘、安全预警和全息展示的风控平台。人民日报的人工智能审核体系,拥有智能审校技术,支持采编素材、视频文字、图书稿件等场景的多维度审校,每十万字内容审校以传统人力方式需要3.3天,机器算法仅需秒级即可完成,AI全方位保障内容质量。


(六)数字人生成驱动平台


人工智能技术在数字人形象生成、动作驱动和语言交互等环节的深入应用,将进一步提升数字人制作的智能化水平,近几年,建设数字人生成驱动平台成为数字人发展的重要依托和载体。


数字人生成驱动平台是利用AI建模技术,以AI语音技术等智能技术为核心,提供虚拟人形象建构,为行业提供虚拟形象生成、AI驱动、API接入、多场景的服务。该平台可进一步降低数字人应用门槛,实现人机可视化交互服务、智能内容生产服务,有效提升用户体验,提升服务质量和效率。


比如数字人生成驱动平台可以提供数字人生产、数字人设管理、业务编排和技能配置、内容创作和IP孵化的功能。数字人生产是指低成本快速定制2D卡通、真人形象及3D卡通、超写实数字人像。结合AI和计算机图形学,具有超写实、高精度的特点,音唇精准同步、表情丰富逼真。


数字人人设管理是指可对数字人进行多维度捏脸、更换发型服饰妆容,定制声音,打造专属数字人形象。数字人业务编排和技能配置是指,内置对话编排、知识配置、商品推荐、场景营销、趣味游戏、真人接管等多种数字人技能,提供便于操作的图形化工作台进行编排及配置,快速实现数字人智能应用,支撑多场景解决方案。


内容创作和IP孵化是指通过功能丰富、素材齐全的智能导播台,实现虚拟IP自动/半自动化的直播、高效的短视频内容创作等功能,为IP拥有者提供“让IP活起来”的能力。


(七)智能化数字孪生平台


智能化数字孪生平台,核心为数字孪生智能化加工引擎,提供灵活丰富的数字孪生消费服务数据接口,能够快速灵活支撑各类数字孪生应用,避免重复建设,缩短应用交付周期,提高应用交付质量,加速组织级数字应用的创新速度,降低数字化转型成本。


数字孪生平台的实现主要依赖于以下几方面技术的支撑: 高性能计算、先进传感采集、数字仿真、智能数据分析、VR呈现,实现对目标物理实体对象的超现实镜像呈现。


数字孪生平台提供多种服务,包含数字孪生图谱,数字孪生服务,数字孪生元模型管理。数字孪生图谱是对现实世界的实体进行数字化表达,它将人、设备、空间都进行了数字化,形成了数字孪生实例,并且将其内在的业务关系具象化,形成了人、物、场相互交织的数字孪生关系图谱。


数字孪生服务:提供免代码的数字孪生服务接口的自定义服务,以此满足灵活多变的数字孪生应用创新需求,并且全周期安全管理,确保数字孪生信息安全可控。数字孪生元模型作为数字世界的运行法则,需要进行有效的展示与表达,可视化的数字孪生元模型编辑器有效提高了实施过程中元模型定义效率;内置不同行业、专业的元模型库。


(八)智能化分发平台


智能媒体的发展中,分发传播是核心环节。2012年前后,互联网平台积极开发了智能推荐分发平台,通过算法模型来分析每个用户的满意度,实现“千人千面”的信息分发,从而导致了媒体分发环节的变革和创新。


随着人工智能技术的不断发展,大数据的“深度学习”能力进一步提高了分发平台的智能化水平。人工智能更多介入了内容数据,对媒体内容智能化标签的处理,更加智能化的知识图谱建构,形成了复合维度的内容类型和分类。


对于用户数据的更长时间的收集和积累,形成了更多维度的用户画像体系,确定用户的媒体接受倾向。智能推荐系统,经过大量数据的反复训练,开始设计各类的推荐模式,多种的推荐算法越来越发展成为了复合智能推荐模型,能够实现智能化的“精准分发”。 


《智能媒体融合发展报告(2022)》中提出,智能分发推荐平台有四大特点。特点一:端到端的能力搭建。面对不同的行业场景,实现从推荐端实时处理到在线服务模块。


特点二:大规模分布式机器学习。利用突破性的大规模分布式机器学习以及高性能高可用的技术架构,可以支持日均50亿+的内容阅读量,日均60万+的内容发布量。
特点三:行业独家定制。智能分发平台提供电商、新闻、社交等多行业模板,行业模板均经过大量项目实践经验沉淀。同时按照用户需求,个性化分析用户画像,达到精准推流,锁定目标人群,增强用户黏性。
特点四:深度开放的功能选择。灵活的黑白盒功能,既能满足零基础用户一键配置推荐的需求,又能满足专业算法工程师代码层面开发的需求。丰富的推荐类型,并且具有自定义特征工程或者预设置模型,全面含括各种需求,完整的校验及归因分析,打造多元化运营策略。

结语


人工智能的发展,为信息处理模式带来创新性的变革,从而推动了智能媒体的进一步变革创新。人机传播,智能生产内容,多模态的内容处理,人机协同理论,会逐步成为智能媒体的研究方向,推动智能传播生态的建构。智能媒体变革的技术动力,来自各个人工智能板块的原子力,这些人工智能技术的原子力,经过“聚变”或者“裂变”,成为智能媒体应用中新的热点或者新的方向。
智能媒体的平台化,是下一阶段媒体发展的重要思路。人工智能为主体的智能化媒体平台,将进一步推动媒体深度融合的内容生态发展、传播能力提升、体制机制改革,从而为媒体发展带来智能化的篇章。
编者按:来源:青年记者杂志作者:赵子忠,中国传媒大学新媒体研究院院长,教授;王喆,谢菲尔德大学国际新闻专业硕士研究生;郑月西,中国传媒大学广告学院硕士研究生;

本文引用格式参考:赵子忠,王喆,郑月西.原子力与平台化:智能媒体的发展理论与模式[J].青年记者,2023(01):12-17.


延伸阅读


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存