刚刚落幕的全运会,广东广播电视台“火力全开”。
作为官方渠道,又是自家主场,他们不仅要直播69项赛事(一度分屏同步直播不同赛事),更要争分夺秒地捕捉、剪辑、分发精彩瞬间,让观众第一时间享受最新鲜的赛事精华。
作为老朋友,腾讯云用AI为广东台助阵——
基于腾讯云ADP(智能体开发平台)打造的“AI内容服务平台”,可以帮助编辑记者朋友们处理直播素材、整理赛事内容,辅助写新闻稿和做播客等。
这是全栈AI第一次在全运会这样的大型体育赛事直播中,系统参与内容直播制作环节。对广东台而言,也是一次融合创新尝试。整个全运会期间,AI累计辅助广东台生产了百余条爆款内容,整体效率提升40%。
AI究竟是怎么帮助广东台增效的?是某个环节加速,还是针对工作流提效?往下看——
//智能生产:AI自动值守“出片”,最快仅需几分钟
传统模式下,想剪一条“苏炳添冲刺”的集锦,编辑记者需要紧盯直播流,标记、剪辑,动辄要几十分钟甚至更久。现在,基于AI内容服务平台,这一流程压缩至十分钟甚至几分钟。
平台依托腾讯云媒体处理(MPS)AI处理能力,实现直播录制、直播人物拆条、高光集锦生成三大自动化功能——
直播人物拆条:针对特定运动员,平台采用“人脸识别+人物位置追踪”组合模型,能识别“运动员身份”并锁定人物在画面中的位置。当目标人物离开画面5到10秒,平台就会自动判断片段边界,完成切片打包;
高光集锦生成:基于混元大模型的动态场景理解能力,平台能实时分析运动员动作、裁判手势以及观众反应,自动生成“扣篮”“庆祝”等精彩瞬间。编辑无需回看全部录像,即可获得标注好的精华内容。
为了防止AI判断片段起止点时出现误差(如动作截取不全),平台还设有智能容错机制,对关键动作前后预留10秒甚至更长的镜头缓冲,编辑可自行调整入点和出点,确保剪出来的片子有头有尾,动作完整。
//智能管理:检索视频素材,像“聊天”一样简单
生产出海量的精彩片段后,如何快速找到想用的那一条?
腾讯云提供的“多模态内容管理”,让编辑可以按片段、场景、摘要或者语音,用自然语言进行内容检索。
这背后,是一套基于多模态大模型的“理解-记忆”机制。每一条视频进入素材库后,AI会为它建立多维度的“数字档案”:
听懂声音。视频上传后,平台进行音画分离,通过语音识别将现场解说、采访对话等语音转写为文本,并根据语义切分成片段;
看懂画面。视频素材被拆解为一个个小片段,比如一个运动员的特写就是一个片段,AI会对每个片段的景别(近景/中景/远景/特写)、内容、动作等进行描述,打上标签;
向量化存储。所有的声音文本、画面描述以及字幕信息等,都转化为方便AI理解和检索的“向量”,存入数据库。
这样一来,当编辑记者需要某个片段时,无需翻找文件夹,只需在搜索框里输入关键词,比如“扣篮得分”,AI就能理解他的意图,精准定位到相关的画面和声音片段,直接推送。
除了视频生产与检索,腾讯云还围绕编辑记者采编的全流程,配备了一系列开箱即用的AI能力——
智能写作助手:提供“新闻通讯”“赛事评论”“新媒体文案”“分镜编写”等多种风格的智能体,为稿件撰写提供灵感和初稿;
AI双人播客:基于腾讯混元播客大模型,可将一篇新闻稿一键转化为生动自然的双人对话式播客音频,快速适配视频号、APP等融媒体平台。
此前,腾讯云提供的AI技术曾为苏超赛事提供直播增强、精彩集锦生成等服务,可以自动抓取出每一次射门、扑救和红黄牌等关键瞬间。
全运会的火焰已经熄灭,但赛场上的高光时刻,仍在无数屏幕前闪光。
而广东台业内首创的AI实践,正在照亮媒体融合创新的更多可能。我们很荣幸,能够参与并支持广东台完成这次创新探索。
我们更期待,将这些智能工具带给更多媒体伙伴——将繁琐交给技术,将创造力还给人,共同打造更多值得铭记的好内容。
关注同花顺财经(ths518),获取更多机会