編輯:關於Android編程
前面本來說是做h264編碼的 研究了兩天發現ffmpeg裡的h264編碼似乎是要信賴第三方庫x264 還是怎麼簡單怎麼來吧所以就整了個mpeg編碼 ffmpeg移植前面我有一篇ffmpeg解碼裡已經給了 具體鏈接在這http://blog.csdn.net/hclydao/article/details/18546757
怎麼使用那裡面也已經說了 這裡主要是通過ffmpeg將yuv422格式轉換成rgb 然後就是yuv422轉成mpeg格式 接前面幾篇 獲取到yuv422數據後 為了能顯示出來 所以先轉換成rgb565的數據 接口函數如下
/*
* yuv to rgb
*/
JNIEXPORT jint JNICALL Java_com_hclydao_webcam_Ffmpeg_yuvtorgb(JNIEnv * env, jclass obj,const jbyteArray yuvdata, jbyteArray rgbdata,const jint dwidth,const jint dheight)
{
jbyte *ydata = (jbyte*)(*env)->GetByteArrayElements(env, yuvdata, 0);
jbyte *rdata = (jbyte*)(*env)->GetByteArrayElements(env, rgbdata, 0);
AVFrame * rpicture=NULL;
AVFrame * ypicture=NULL;
struct SwsContext *swsctx = NULL;
rpicture=avcodec_alloc_frame();
ypicture=avcodec_alloc_frame();
avpicture_fill((AVPicture *) rpicture, (uint8_t *)rdata, PIX_FMT_RGB565,dwidth,dheight);
avpicture_fill((AVPicture *) ypicture, (uint8_t *)ydata, AV_PIX_FMT_YUYV422,mwidth,mheight);
swsctx = sws_getContext(mwidth,mheight, AV_PIX_FMT_YUYV422, dwidth, dheight,PIX_FMT_RGB565, SWS_BICUBIC, NULL, NULL, NULL);
sws_scale(swsctx,(const uint8_t* const*)ypicture->data,ypicture->linesize,0,mheight,rpicture->data,rpicture->linesize);
sws_freeContext(swsctx);
av_free(rpicture);
av_free(ypicture);
(*env)->ReleaseByteArrayElements(env, yuvdata, ydata, 0);
(*env)->ReleaseByteArrayElements(env, rgbdata, rdata, 0);
return 0;
}
然後就是mpeg編碼了 網上說ffmpeg只能將yuv420p的編碼 所以要先將yuv422轉成yuv420p後在進行編碼 相關接口函數如下
AVCodecContext *pCodecCtx= NULL;
AVPacket avpkt;
FILE * video_file;
unsigned char *outbuf=NULL;
unsigned char *yuv420buf=NULL;
static int outsize=0;
/*
* encording init
*/
JNIEXPORT jint JNICALL Java_com_hclydao_webcam_Ffmpeg_videoinit(JNIEnv * env, jclass obj,jbyteArray filename)
{
LOGI("%s\n",__func__);
AVCodec * pCodec=NULL;
avcodec_register_all();
pCodec=avcodec_find_encoder(AV_CODEC_ID_MPEG1VIDEO);
if(pCodec == NULL) {
LOGE("++++++++++++codec not found\n");
return -1;
}
pCodecCtx=avcodec_alloc_context3(pCodec);
if (pCodecCtx == NULL) {
LOGE("++++++Could not allocate video codec context\n");
return -1;
}
/* put sample parameters */
pCodecCtx->bit_rate = 400000;
/* resolution must be a multiple of two */
pCodecCtx->width = mwidth;
pCodecCtx->height = mheight;
/* frames per second */
pCodecCtx->time_base= (AVRational){1,25};
pCodecCtx->gop_size = 10; /* emit one intra frame every ten frames */
pCodecCtx->max_b_frames=1;
pCodecCtx->pix_fmt = AV_PIX_FMT_YUV420P;//AV_PIX_FMT_YUYV422;
/* open it */
if (avcodec_open2(pCodecCtx, pCodec, NULL) < 0) {
LOGE("+++++++Could not open codec\n");
return -1;
}
outsize = mwidth * mheight*2;
outbuf = malloc(outsize*sizeof(char));
yuv420buf = malloc(outsize*sizeof(char));
jbyte *filedir = (jbyte*)(*env)->GetByteArrayElements(env, filename, 0);
if ((video_file = fopen(filedir, "wb")) == NULL) {
LOGE("++++++++++++open %s failed\n",filedir);
return -1;
}
(*env)->ReleaseByteArrayElements(env, filename, filedir, 0);
return 1;
}
JNIEXPORT jint JNICALL Java_com_hclydao_webcam_Ffmpeg_videostart(JNIEnv * env, jclass obj,jbyteArray yuvdata)
{
int frameFinished=0,size=0;
jbyte *ydata = (jbyte*)(*env)->GetByteArrayElements(env, yuvdata, 0);
AVFrame * yuv420pframe=NULL;
AVFrame * yuv422frame=NULL;
struct SwsContext *swsctx = NULL;
yuv420pframe=avcodec_alloc_frame();
yuv422frame=avcodec_alloc_frame();
avpicture_fill((AVPicture *) yuv420pframe, (uint8_t *)yuv420buf, AV_PIX_FMT_YUV420P,mwidth,mheight);
avpicture_fill((AVPicture *) yuv422frame, (uint8_t *)ydata, AV_PIX_FMT_YUYV422,mwidth,mheight);
swsctx = sws_getContext(mwidth,mheight, AV_PIX_FMT_YUYV422, mwidth, mheight,AV_PIX_FMT_YUV420P, SWS_BICUBIC, NULL, NULL, NULL);
sws_scale(swsctx,(const uint8_t* const*)yuv422frame->data,yuv422frame->linesize,0,mheight,yuv420pframe->data,yuv420pframe->linesize);
av_init_packet(&avpkt);
size = avcodec_encode_video2(pCodecCtx, &avpkt, yuv420pframe, &frameFinished);
if (size < 0) {
LOGE("+++++Error encoding frame\n");
return -1;
}
if(frameFinished)
fwrite(avpkt.data,avpkt.size,1,video_file);
av_free_packet(&avpkt);
sws_freeContext(swsctx);
av_free(yuv420pframe);
av_free(yuv422frame);
(*env)->ReleaseByteArrayElements(env, yuvdata, ydata, 0);
}
JNIEXPORT jint JNICALL Java_com_hclydao_webcam_Ffmpeg_videoclose(JNIEnv * env, jclass obj)
{
fclose(video_file);
avcodec_close(pCodecCtx);
av_free(pCodecCtx);
free(outbuf);
}最後錄下來的視頻是可以用播放的 總感覺代碼好像哪裡寫的不對 bug總是有的 過程和原理搞清楚了其它就容易了
下面是我錄的 至此攝像頭這塊暫時就這樣了

這測試我又重新新建了一個工程
整個工程下載鏈接 請去我的資源裡找吧 我上傳了沒顯示出來 那個有20幾M的就是的了
這個bug很多 沒怎麼認真去寫 如果原理和過程有問題的希望大家指出
Android開源工具項目集合
最流行的android組件大全http://www.open-open.com/lib/view/open1409108030307.htmlAndroid開源項目分類匯
安卓自定義View----且看如何巧妙地實現一個類似於電視遙控板的環形按鈕效果(上)
本文力求用最簡單的方式實現這樣的一個效果,並輔以詳細的文字說明。老規矩,先看圖:一個點餐界面,6種菜品,意味著6個按鈕,點擊‘開始點餐’ 幕布上升
Android NDK學習筆記15-配置AndroidStudio
現在大家越來越多的使用AndroidStudio進行Android開發,那麼今天就和大家一起交流一下AndroidStudio開發NDK的配置方法。AndroidStud
android webview與js交互(動態添加js)
1、本地html與本地html裡的js交互2、本地html與本地js交互3、網絡html與網絡js交互4、網絡html與本地js交互5、各個情況動態添加js以上5點都可以