非常感謝您的關(guān)注!
在收看本次專訪文章之前,
我們再次誠摯邀請您
參與今天(10月19日)下午舉辦的
打造沉浸式專業(yè)音視頻體驗(yàn)
AMD ProAV技術(shù)與方案分享專題研討會
芯片大廠AMD本次聯(lián)袂四家合作伙伴,與大家一起分享專業(yè)音視頻及廣電應(yīng)用中基于AMD相關(guān)架構(gòu)的最新方案及他們對市場發(fā)展態(tài)勢的獨(dú)到見解。
北格邏輯研發(fā)總監(jiān)周毅華先生是本次研討會的的分享嘉賓之一。通過本文,您或?qū)Ρ备襁壿嫾爸芤闳A先生的分享內(nèi)容有更深入的了解!

掃描二維碼或點(diǎn)擊“閱讀原文”即可注冊及參會
—— 本文轉(zhuǎn)自“LiveVideoStack” ——

編者按:在音視頻編解碼領(lǐng)域,以H.264/H.265為代表的深壓縮編解碼算法一直占據(jù)著行業(yè)的主流。隨著視頻編解碼的需求增多,淺壓縮算法逐漸得到了重視。JPEG 2000曾獲認(rèn)為是未來取代JPEG的下一代圖像壓縮標(biāo)準(zhǔn)相較于主流的潛壓縮JPEG來說,JPEG 2000壓縮比更高,體積更小,并能同時(shí)支持有損/無損兩種壓縮方式。
北格邏輯是專注于FPGA的音視頻解決方案提供商,其提供的JPEG2000編解碼算法能夠在25倍壓縮下實(shí)現(xiàn)視覺無損,延遲小于8.5ms,是在標(biāo)準(zhǔn)算法的基礎(chǔ)上,針對視頻淺壓縮應(yīng)用做了深入優(yōu)化,充分體現(xiàn)了淺壓縮模式下的低延遲和高畫質(zhì)。
那么,目前JPEG 2000的應(yīng)用場景如何了?在FPGA的幫助下,淺壓縮算法是否會往主流壓縮算法更進(jìn)一步呢?以下,是LiveVideoStack與北格邏輯的對話。
LiveVideoStack:周毅華老師您好,可以跟我們簡單介紹下JPEG 2000的主要應(yīng)用場景嗎?以及它是如何與其他視頻處理模塊相結(jié)合的呢?
周毅華:目前,JPEG2000的主要應(yīng)用場景包括:數(shù)字電影的發(fā)行放映、分布式視頻的淺壓縮應(yīng)用、醫(yī)療設(shè)備的圖像存儲、雷達(dá)等專業(yè)圖像存儲等。JPEG2000的優(yōu)勢在于畫質(zhì)好,在這些要求畫面清晰度高的場景下,能夠得到廣泛地應(yīng)用。而在視頻分布式以及KVM應(yīng)用中,JPEG2000低延遲的特性也是非常重要的,可以解決H.264等深壓縮算法鼠鍵操作延遲大的痛點(diǎn)。
目前的話,北格邏輯的JPEG2000 IP主要應(yīng)用于AV over IP應(yīng)用場景,包括視頻分布式以及無線圖傳等。視頻從編碼器的HDMI/LVDS等視頻接口輸入后,直接送入JPEG2000 編碼IP進(jìn)行處理,編碼后的數(shù)據(jù)流經(jīng)過網(wǎng)絡(luò)(有線或無線、單播或組播)傳遞到解碼器,然后送入JPEG2000解碼IP,還原成視頻流,再經(jīng)過VPSS模塊進(jìn)行裁剪、縮放、開窗、圖層管理等處理后,從HDMI/LVDS等視頻輸出接口輸出,在顯示器上顯示。
LiveVideoStack:在開發(fā)JPEG2000的過程中,您有哪些心得體會?FPGA為實(shí)現(xiàn)部署帶來了怎樣的幫助?
周毅華:JPEG2000標(biāo)準(zhǔn)的碼率控制算法是一個(gè)開放性的規(guī)范,只給出了推薦方案。規(guī)范推薦的碼率控制方案計(jì)算量非常大,延遲也超過一幀,無法充分體現(xiàn)淺壓縮方案的低延遲特性。所以這方面我們花費(fèi)了大量的心血,在最大程度保障畫質(zhì)的前提下,將延遲控制在了半幀以內(nèi),將方案改造成非常適合視頻分布式應(yīng)用場景。整個(gè)過程是一個(gè)不斷迭代、時(shí)間跨度長、畫質(zhì)不斷優(yōu)化的過程。
我們最大的心得體會就是:一個(gè)好的編解碼IP,一定是不斷打磨出來的,不是一蹴而就的。因?yàn)镕PGA的可編程特性,我們可以不斷的、快速的更新我們的版本,讓客戶能夠使用到最新最好的編解碼IP;同時(shí)我們可以提供不同處理性能的版本給客戶,有直接處理8k的,也有720P的,只要選合適容量的FPGA即可。這些都是ASIC方案不具備的。
LiveVideoStack:如何將不同解碼器(例如JPEG2000和H.264)解碼出的圖像混合在同一個(gè)大屏上顯示?這個(gè)過程中有哪些技術(shù)難點(diǎn),最終呈現(xiàn)效果又是如何呢?
周毅華:我們有一個(gè)強(qiáng)大的VPSS模塊,是為了視頻分布式應(yīng)用場景而專門打造的,可以支持最多16路視頻輸入,這些視頻可以是JPEG2000解碼出來的,也可以是H.264解碼出來的,它們分別進(jìn)行裁剪、縮放后在大屏上開窗顯示,可以任意指定視頻的位置和圖層。
對我們來說,最大的技術(shù)難點(diǎn)是多路視頻開窗顯示需要先把視頻存入到內(nèi)存(DDR3/DDR4)的,怎么樣提高內(nèi)存帶寬利用率,怎么樣讓各個(gè)內(nèi)存讀寫接口都能分配到合理的帶寬,保證視頻能夠流暢的播放。我們花費(fèi)大量的時(shí)間,去優(yōu)化內(nèi)存的讀寫效率、多接口讀寫調(diào)度和帶寬分配、內(nèi)部buff的深度,最終達(dá)到的效果在有限的內(nèi)存帶寬下,多路視頻同時(shí)開窗時(shí)都能夠流暢的播放。
LiveVideoStack:您認(rèn)為未來(五年內(nèi))視頻編解碼技術(shù)會達(dá)到怎樣的進(jìn)步?
周毅華:深壓縮和淺壓縮代表著編解碼算法的兩種發(fā)展方向。以H.264/H.265為代表的深壓縮算法,在畫質(zhì)不降低的情況下,追求更高的壓縮倍數(shù),新一代深壓縮算法H.266有可能在5年內(nèi)實(shí)現(xiàn)商用。而隨著4K/8K分辨率的普及,以及用戶對高清畫質(zhì)和超低延遲的需求,廣電領(lǐng)域?qū)A層編碼的需求,也會讓以JPEG XS和JPEG2000為代表淺壓縮算法得到廣泛的應(yīng)用;同時(shí),針對不同的應(yīng)用場景,也會有新的、更好的淺壓縮編解碼算法出現(xiàn),已有的淺壓縮算法也會不斷迭代,以滿足應(yīng)用需求。
LiveVideoStack:可否透露一下貴司對FPGA及相關(guān)技術(shù)的未來展望以及后續(xù)對FPGA技術(shù)的應(yīng)用呢?
周毅華:北格邏輯未來會持續(xù)在音視頻領(lǐng)域深入耕耘,打造全系列的基于FPGA的淺壓縮編解碼算法,包括JPEG2000、JPEG XS、DSC和Huffman-diff等等,壓縮倍數(shù)從2-3倍、6-10倍、15-25倍全覆蓋,追求更高的畫質(zhì)和更低的延遲。同時(shí)圍繞著這些編解碼IP,北格邏輯會完善包括視頻輸入輸出接口、VPSS、視頻網(wǎng)絡(luò)傳輸協(xié)議等在內(nèi)的視頻類IP,客戶可以使用我們的IP快速搭建出自己的視頻處理系統(tǒng)。
LiveVideoStack:在10月19日AMD的技術(shù)與方案專題研討會上,您會帶來哪些分享,可否跟我們的讀者劇透一下呢?
周毅華:10月19日的專題研討會,我首先會介紹一下北格這邊已有的一些音視頻類IP(包括ISP、編解碼、VPSS、3D LUT等),然后重點(diǎn)講一講北格邏輯JPEG2000的特點(diǎn),以及與H.264/JPEG XS的對比;最后結(jié)合視頻分布式/KVM的應(yīng)用場景,介紹如何在FPGA內(nèi)用這些IP打造一個(gè)高性能、高畫質(zhì)、低延遲的視頻傳輸系統(tǒng)。