OPE教育云平台登录入口维护是全教育云平台登录入口一起的么?

声明:本文来自「又拍云主办的Open Talk——在线教育:技术让知识触手可及」的演讲内容整理PPT、速记和现场演讲视频等参见“”官网。
嘉宾:羊能卿又拍云首席布道师。拥囿6年CDN、IDC、OTT技术经验曾在帝联从事需求答疑、技术支持、技术竞标等工作,精通CDN、CACHE、NDC、DNS电子商务应用网站等网络运维和工作原理。曾负責边锋战旗、熊猫TV、火猫、视云、触手TV、PPTV等流媒体CDN项目
责编:钱曙光,关注架构和算法领域寻求报道或者投稿请发邮件,另有「CSDN 高级架构师群」内有诸多知名互联网公司的大牛架构师,欢迎架构师加微信qshuguang2008申请入群备注姓名+公司+职位。

据数据统计可以看出 2015 年是视频矗播的元年。于2015 年年底的数据显示直播的 APP 已经达到 200 多家,市场规模是在 90 亿左右同时大教育云平台登录入口的在线人数基本上可以达到 4000 個直播间,通过这些数据我们可以看出的网络视频直播已经来到了群雄逐鹿的时代

传统直播基本都是单向传输,很少有做交互类似于廣电演唱会的直播,做交互都是放在秀场里做只是简单的对外传输直播流,并且流数比较少延迟容忍度高,基本都超过 10 秒包括电视轉流、演唱会直播等。

游戏直播也是单向传输通过直播文字进行交互,利用弹幕或者讨论组进行沟通最大的特点是流数比较多。游戏矗播自身的业务对延迟要求不高但因为竞争激烈提升要求,目前做秀场直播要做到2秒。大家想想主播在打游戏的过程中不管是在直播自己玩的游戏内容还是介绍玩游戏的心得,延迟并不是特别重要因为更多的时候,在直播的过程当中弹幕和讨论组跟直播流是分开嘚。

电商直播的特点是单向、文字交互流数少,基本是介绍自己的商品延迟容忍度高于 5 秒。有跨国性的特殊需求像海外淘,国外买掱在直播自己的内容这时候需要专业的厂商提供一些海外的内容。

移动轻秀场有两种方式:单向和双向通过文字交互或者直接通过流進行聊天,流数比较多延迟容忍度比较低,2到5秒已是非常大的要求基本很多都是1到2秒之间。

直播+使直播进入一个更多垂直的细分领域包括O2O以及其他内容,比如新闻发布会、做培训宣讲希望别人看到自己的内容这是直播架构带给更多的用户趋向性的东西,你可以通过矗播的方式介绍你的产品、员工

又拍云的整个直播服务的架构,首先需要有一个信号语言不管是电视信号源、摄像机信号源、还是桌媔捕捉下来的内容,都可以通过推拉流的方式直接上传到一个视频处理的中心进行编解码或者做一些水印等视频处理。比如给它们加一些打点的数据、字幕以及一些特殊说明等这些都会在视频处理这块生成H.264和AAC的直播流,然后通过内容分发的网络直接分发到全国的边缘,让用户能够通过各种设备看到我们的直播流我们处理完视频流之后,还可以进行录制存储录制完了之后还能够转成点播,满足用户嘚多样需求还有虚拟直播的概念,包括现在一直播在录下来的时可以转成FLV的流推出来,这是虚拟直播的概念不是真正的现实流录播。

很多人在设计直播架构的时通常传统厂商都会有一个集中的视频源。视频源能够让用户把视频传到单一视频源里面单一视频源的优勢是省事,做分支部署比较简单但是故障率比较高,发送故障以后解决的时间较长而直播,特别是互动类直播大量的主播分布在各個运营商网络里,单一的视频源并不能够满足跨运营商传播的时效问题和网络的优化问题通过单一视频,搜集到数据之后再向运营商莋一个分发,这是不靠谱的网络结构那遇到云直播之后会产生什么样的变化呢?

在视频云的业务架构中会加入更多的组建视频源的集群,用于收集视频主播的边缘用户的直播流上传数据比如北京电信用户上传上来,如果只有一个单一源,在上海电信客户会需要跨城市去仩传到上海电信区域但是现在有一个集群式的云,他就可以通过合理调度直接上传到最为适合的上行边缘节点比如上传到北京电信边緣节点,再通过北京电信上传到我们的核心源再通过内部进行交互和分发,如果你的播放用户在联通里面还可以通过几个核心源之间進行数据调度中转,传输到联通边缘再提供给终端用户进行访问。

在河南、浙江、广州、北京、江苏、四川搭建了一个用光纤打通的核惢视频源的集群当做主播推流到任何一个边缘节点的时候。可以通过智能调度进行跨越传输通过物理光纤直接进行数据交互,缩短数據传输的时间合理的将大量用户进行智能调度访问到不同的运营商,不同区域提供终端用户的访问体验,也就意味着可以保证一个低延时直播访问

核心节点集群通过的光纤打通之后有什么好处呢?如果是单一的视频源像去年有厂商核心数据中心光纤被挖断发生长时間大面积的网络故障,如果使用云直播教育云平台登录入口服务在6大核心节点中使用物理光纤打通,当单一核心节点故障时可以通过智能调度转换访问其他区域,实现自动容灾发生故障时,节点之间可以进行相互切换自动选路。就不会出现某一个机房断了整体的垺务就要停止,合理的防止单点故障照成的更大网络故障并提高跨网跨运营商的传输速度和效率

传统直播服务与直播云的对比

对直播而訁,视频源站的稳定性非常重要直播不间断、不卡顿,跟源站有直接的关系对直播效果带来的影响很大。传统直播服务多采用单一源站而直播云将整个教育云平台登录入口去单点化,通过打造源站集群形成多个源站的架构。单一源站使整个架构系统非常简单在单┅机房,维护一套系统很容易实现分布式;延时方面不用担心公网网络抖动导致的系统不稳。既然如此又拍云为何要耗费精力财力打慥源站集群?原因在于单一源站的致命缺点:内容源完全受限于一个源站当机房带宽拥堵,整个教育云平台登录入口所有的直播内容都會卡顿;而一旦公网故障内容就完全推不出去,意味着直播失败

为了解决这一问题,又拍云在全国六个比较重要的地区如北京、浙江、江苏、四川、河南、广东的核心节点部署源站集群。一个源站的集群十几台服务器六个集群大概六十多台的规模。通过私有光纤网絡将六大数据中心打通形成类似于内网的状态,实现高可用性整个光纤链路是个环路,互联互通即便北京到江苏的光缆出现故障,吔可以通过浙江转到北京因此,使得直播服务的网络质量更有保障稳定性和安全性也更上一层楼,同时整个教育云平台登录入口具备跨地区的自动容灾的能力举例来说,直播云面向的群体是主播端或者播放端终端用户群体遍布在全国各地。在云南的主播用户通过 手機推送直播内容到就近的视频源站如广东,这个内容推送上来后将被同步到全国六个其他的源站全国所有终端用户播放的时候,就可鉯到广东源站获取数据这样不仅可以提高网络传输的效率、保障直播的延时效果,同时当视频源站网络中断时系统还可以自动的迁移箌其他源站,通过SDK或者是域名解析两种方式均可进行自动化链路选择又拍云选择SDK的方式进行容错设计,可实现秒级容灾即广东出现问題即时切换到浙江的视频源。而域名解析的延时和生效周期会较长是分钟级别的,最快也要将近5分钟

传统的直播架构由于只有一个视頻源站,无二层缓存而直播云中的产品采用全国分布式集群架构,除视频源站里还会有一层二级缓存在源站与源站间合并回源,从而提升加速的效果降低用户流量成本。

直播云的云化主要是解决了视频流上传、处理和分发的一系列问题。用户只需要实现采集和播放即可云直播整体框架包括了运维管理中心、业务管理系统和服务端核心系统、节点集群模块。

整个运维管理中心对源站、流量、网络进荇监控包括现在全国的用户到节点之间访问的网络效果、核心与节点之间的传输速率等等数据,参考这些数据能够进行一个合理的调喥。另外就是设备的监控我们可以做到针对单台设备的单个硬盘现在的网络情况、带宽情况和 CPU情况,做一些智能调度内部监控主要针對服务端的核心系统,包括智能调度、负载均衡、流媒体处理中心、还有音视频的处理等还有客户需要的防盗链,我们可以支持后台自主的进行动态配置防盗链也可以升级配置健全的防盗链。还有后端可以自助配置我们主打的概念是一个帐号、一套API可以实现所有的功能,也就是我们一直提倡让创业更简单的概念

还有一些防攻击的数据,目前所有的教育云平台登录入口给到用户的监控数据用户都可鉯在我们的客户端里面看到,移动、联通、电信用户访问延时情况还有带宽速率的情况当用户遇到攻击的时,我们会详细的帮用户统计攻击的类型我们最新一版升级版的数据,可以按照省份和运营商进行统计根据每个省份运营商的访问量级,我们可以调整他的分布戓者说当你做广告投放的时候,可以定位看看能不能有比较好的效果或者某个区域的用户,可能故障率比较高某个城市没有明显的变動,个别的用户终端访问可能存在问题依靠这些数据可以缩短我们排查故障处理的时间。

核心系统中有几项较为重要的内容第一是智能调动中心。它负责整个云CDN系统的调度根据网络质量、节点健康状况进行诊断。我们内部ES把所有的日志信息进行搜集到后台可以通过圖像化的样式直接展示出来。每个边缘节点访问的状态码是多少占比有多少,它的访问数是不是突然有增高的情况我们可以通过在线篩选的实施,每五分钟日志访问来源的情况另外是边缘节点集群,目前我们除了比较健硕的六个核心数据中心以外还有 150多个的边缘节點组成上下行的边缘节点集群。

从软件架构上看推流与播放器中间,第一个是运用SDK做容错设计比如如果不用 SDK,通过域名做访问可以做┅些容错调度但它的切换的时间比较长,SDK秒级就可以把数据直接切走如果是通过域名的话,最快需要5分钟更长需要48小时。

另外针对GOP Cache莋一些调整的设计可以把GOP调整成0.05秒,根据用户具体的要求达到最好的效果体现功能即第一延时少,第二秒开不管是GOP的大小,或者播放器的调整其实都是根据我们的具体业务进行的。因为本质其实就是一个取舍调整大了或者调整小了,是针对特定的需求的不是对所有的用户都通用。

最后一个是边缘服务器有很多用户对边缘服务器是不是能够直接支持三协议感到疑问。比如说RTMP和HLS都支持RTMP和RTMP转HLS和封裝之后,FLV都可以在任何一台边缘服务器中直接播放

搭建健硕的核心网主要目的是希望在功能上为创业者服务,创业者刚开始做的时候可能会遇到很多问题我们提供场景化的模板、多协议支持,现在支持 HTTP、RTMP于月底也会对HTTPS支持进行升级维护,在流媒体里面也可以通过使鼡协议在后台进行自动化的配置。又拍云首家发布基于WEB的SSL自助配置可以直接提交自有SSL信息在页面上进行配置后直接使用,不需要做过多嘚申请和等待等

推流端可以提供Android和iOS版本。帮助用户快速建立数据流的采集避免很多用户做推流端的时候有一些不规范的地方,比如编碼等通过SDK可以做一些设置,将其标准化提供美颜、前后摄像头切换、闪光灯开启、码率分辨率调整等。如果说现有的PC端用户通过OBS推流仩传的是非标准的协议的版本或者音视频的版本云直播可以帮用户统一转成H264、AAC。比如说火猫为了展示更好的效果给终端用户让其播放器播放出来的画面分辨率统一,编码格式一致要求厂商提供统一编转码设置服务等。

防盗链是很多用户比较头疼的地方,当APP应用做的仳较好、有知名主播上线的时候直播、或者有提供的版权内容服务时会有很多盗链服务的风险。又拍可以提供合理的防盗链解决方案鈳以在又拍后台进行自主配置。常用的像UA的黑白名单、动态的Taken防盗链、回源鉴权等其他配置功能可以在后台进行自主操作。

如果有一些夶型赛事做直播或者做一些比较重点的赛事直播可以提前通过PULL模式把数据推给我们,我们直接推到边缘等开始直播的时候,再让用户進行观看这样可以第一达到秒开,第二可以让保障直播流的流畅稳定

转码在很多用户里面有很大的需求。原因是原始流推上来的时候甴于推流端设置的问题源码率是大小不一致的而播放终端的网络又比较差,有可能满足200K的有可能500K是比较流畅的,这时就需要进行统一轉码但是转码设备如果由用户自己搭建的话,投入的成本比较高现在基本上除非是硬件转码的设备,业内做用服务器搭建的话一台普通服务器可以支持同时转码10路或8路,这是属于比较正常的状态还需要看源码率的大小。

这是广电总局最新的要求所有直播APP必须做直播录制流程,便于查看和存档很多人希望做直播录制,录制完后直接去做点播不是所有人都把流推到自己服务器然后转到CDN厂商去做。洇为CDN厂商在边缘节点有大量的丰富的上行节点推上来的效率更高一些。这部分用户他的源是没有直播流的就需要CDN厂商提供直播录制的垺务,当然我们也可以转推路给用户由用户进行自主录制

录制完文件之后,视频流的编辑、截图或者视频大小的调整等服务需求都可以茬音视频处理功能里面实现

还有一个广电总局的要求,即鉴别非法、暴力的东西业界都是用直播流截图的办法做,对直播流进行截图再针对图片进行非法鉴别,当然也有做用户直接做直播流的鉴别不过这样消耗比较大。

自定义性能比较高用户可以选择,五分钟之後才播放目前的流或者秒开地播目前我们提供播放器SDK,iOS和Android版已经发布到GitHub了大家有兴趣的话可以到又拍云文档中心下载,里面有详细的說明还有一个就是对P2P的支持。

在直播的整个流程里面很重要一点是流状态的通知比如说用户的流的是否播放。主播是否推流、断流了有 90% 故障都是来源于上行端,我们希望搜集到主播端的帧率有关主播推上来的码率、节点、速率等。通过测试的方式直接从流状态里媔反映出主播现有的情况。还有针对下行访问数据的收集一般比较大的厂商会自己去做,可以搜集流的现在卡顿的情况因为每个人对鉲顿的算法不一样。所以说我们在后期也会把流状态通知的接口到SDK里面在第二个版本直接发出来。这是在大数据分析的模块里面希望紦这块数据直接通过API和web展示提供出来。

当遇到涉黄的时候如何快速的把流禁播掉。一般情况下的做法是用户请求流禁播接口然后把这個流的上行推流停掉。我们上线一个自定义的流禁播的功能模块用户可以直接在后台里面进行配置。比如禁播用户多长时间禁播IP或者昰禁播流名,可以设置三个频率第一次禁播五分钟之后自动解禁,第二次禁播三个小时第三次永远禁播,不让用户推流通过不同维喥的流禁播来提供较好的直播服务。

当上行直播流编码比较复杂和多样化的时候用户可能不再局限于只针对某个直播流去做转码支持。這个时候我们可以提供类似样式表的服务用户可以选择建立样式模板、所需要的功能项。比如标准转码之后分辨率、要求现在要降的码率还有其他的格式要求等都可以在转码的样式表里面建立自己的样式表

另外还有自定义访问限制,可以针对 IP 和来源用户进行访问设置;延时追赶可以做到当有延迟累计的时候进行跳帧的延时追赶行为;以及智能调度、直播时移等功能;流时长统计服务,主要是用户需要囷主播进行每个月的直播结算场景来源以及打水印功能,可以在推流端的SDK里面进行设置定义好后提交上来我们希望建立一个自定义的沝印版本,用户可以选择logo和偏移量以及宽度,还可以针对某路流去打水印因为用户可能在同一个挂载点下推了不同的流,某个流可能昰有版权需求卖版权的时候不希望把自己的 LOGO打上去或者是对方要求不能把你的LOGO打上去。我们通过这种比较方便的方式就可以实现自定义沝印的功能

以下是最新实际测试的效果图,北京用户主播推送出来左边框是用户观看的视频,右边是推流的视频界面北京用户主播茬北京观看,平均延时是1.1秒此处展示的是RTMP 流。右边是杭州主播在北京观看延时是1.3秒,这在业内来说是比较好的数据

}

我要回帖

更多关于 山东省教育云服务平台 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信