如何將海康威視攝像頭SDK的視頻流推送到前端Vue項目中進行實時播放?

海康威視攝像頭SDK視頻流在vue項目中的實時播放

本文介紹如何將海康威視攝像頭sdk獲取的視頻流,通過流媒體服務器(zlmediakit),最終在vue前端項目中實時播放。 整個過程不依賴云視頻服務,攝像頭直接連接至本地電腦

如何將海康威視攝像頭SDK的視頻流推送到前端Vue項目中進行實時播放?

系統架構與實現思路

系統采用三層架構:

  1. 海康威視攝像頭及后端(spring Boot): 使用海康威視SDK獲取攝像頭視頻流。
  2. 流媒體服務器(ZLMediaKit): 作為中間件,接收后端推送的視頻流,并進行轉發。
  3. 前端(Vue): 從ZLMediaKit拉取RTSP流進行播放。

后端(Java)實現細節

后端使用spring boot框架,核心邏輯在于將海康SDK回調的視頻數據推送到ZLMediaKit。 代碼片段如下:

@Service public class HikvisionServiceImpl implements HikvisionService {      // ... 其他代碼 ...      @PostConstruct     public void register() {         // 初始化海康SDK,獲取視頻流         HikvisionClient client = new HikvisionClient();         client.initPipedStream();         client.clientInit();         client.action(); // 開始預覽,并通過回調獲取視頻流數據     }      // 海康SDK回調函數     class RealDataCallback implements HCNetSDK.FRealDataCallBack_V30 {         @Override         public void invoke(int lRealHandle, int dwDataType, ByteByReference pBuffer, int dwBufSize, Pointer pUser) {             if (dwDataType == HCNetSDK.NET_DVR_STREAMDATA) {                 if (dwBufSize > 0) {                     ByteBuffer buffer = pBuffer.getPointer().getByteBuffer(0, dwBufSize);                     byte[] bytes = new byte[dwBufSize];                     buffer.rewind();                     buffer.get(bytes);                     executor.execute(() -> pushToZLMediaKit(bytes)); // 推送到ZLMediaKit                 }             }         }     }      private void pushToZLMediaKit(byte[] data) {         //  將數據推送到ZLMediaKit,這部分需要根據ZLMediaKit的API進行實現,         //  可能需要將數據進行編碼轉換(例如H.264),并通過網絡發送到ZLMediaKit服務器。         // ...  ZLMediaKit 推送代碼 ...     } }

pushToZLMediaKit 方法是關鍵,需要根據ZLMediaKit的API文檔,將接收到的視頻數據推送到指定的流媒體服務器地址。這可能涉及到數據格式轉換(例如,將原始數據轉換為H.264流)。

立即學習前端免費學習筆記(深入)”;

前端(Vue)實現細節

前端使用Vue框架,并結合合適的視頻播放器庫(如flv.JS或hls.js)來播放從ZLMediaKit獲取的RTSP流。

// Vue組件代碼片段 <template>   <video ref="videoPlayer" autoplay></video> </template>  <script> import flvjs from 'flv.js'; // 或hls.js  export default {   mounted() {     this.initPlayer();   },   methods: {     initPlayer() {       const rtspUrl = '/api/rtspStream'; // 后端提供的RTSP流地址接口       fetch(rtspUrl)         .then(response => response.json())         .then(data => {           const flvPlayer = flvjs.createPlayer({             type: 'flv',             url: data.rtspUrl // 獲取到的RTSP流地址           });           flvPlayer.attachMediaElement(this.$refs.videoPlayer);           flvPlayer.load();           flvPlayer.play();         })         .catch(error => console.error('Error fetching RTSP URL:', error));     }   } }; </script>

/api/rtspStream 是一個后端接口,返回ZLMediaKit中生成的RTSP流地址。

完整解決方案補充

為了實現穩定的視頻流傳輸,后端可能需要使用ffmpeg進行轉碼,將海康SDK輸出的原始視頻流轉換為ZLMediaKit支持的格式(例如FLV)。 后端需要持續地將數據寫入響應流,前端則通過flv.js等庫解析并播放。 這需要仔細處理網絡傳輸和數據緩沖,以保證視頻播放的流暢性。 錯誤處理和資源釋放也至關重要。

? 版權聲明
THE END
喜歡就支持一下吧
點贊14 分享