分享

ffmpeg超详细综合教程

 mediatv 2016-07-11


本文的示例将实现:读取安卓手机摄像头数据并使用H.264编码格式实时编码保存为flv文件。示例包含了

1、编译适用于安卓平台的ffmpeg库

2、在java中通过JNI使用ffmpeg

3、读取安卓摄像头数据并在后台线程中使用ffmpeg进行编码的基本流程

具有较强的综合性。

编译适用于安卓平台的ffmpeg库

平 时我们编译ffmpeg类库都是在x86平台下,而安卓手机属于arm平台,所以要先通过交叉编译的方法在x86平台下编译出可以在arm平台下使用的 ffmpeg类库。Google就为我们提供了一套可以再Linux下完成该任务的交叉编译工具链——NDK,下载时可以看到google同时提供了 ndk的windows版和linux版,前者可以在windows下通过cygwin(可以理解为一个在windows下模拟linux的工具)使用。 我这里使用的是Android-ndk-r10e,在cygwin下使用。ndk的下载安装基本是傻瓜式的,但要注意linux系统对x86和x64是分 的很清楚的,不像windows那么随性,此外还需要提醒的是,在下载安装cygwin时,只需要选择binutils
, gcc , gcc-mingw , gdb , make这几个组件。安装完成后,在cygwin安装目录下点击cygwin.bat打开命令窗口,输入make -version验证是否安装成功。



做好以上的准备工作之后就可以正式开始ffmpeg源码的编译了。
首先需要修改configure文件,确保类库版本号不会出现在.so后缀名的后面,否则安卓平台无法识别这样的类库
找到下面几句
  1. SLIBNAME_WITH_MAJOR='$(SLIBNAME).$(LIBMAJOR)'    
  2. LIB_INSTALL_EXTRA_CMD='$$(RANLIB)"$(LIBDIR)/$(LIBNAME)"'    
  3. SLIB_INSTALL_NAME='$(SLIBNAME_WITH_VERSION)'    
  4. SLIB_INSTALL_LINKS='$(SLIBNAME_WITH_MAJOR)$(SLIBNAME)'  
修改为
  1. SLIBNAME_WITH_MAJOR='$(SLIBPREF)$(FULLNAME)-$(LIBMAJOR)$(SLIBSUF)'    
  2. LIB_INSTALL_EXTRA_CMD='$$(RANLIB)"$(LIBDIR)/$(LIBNAME)"'    
  3. SLIB_INSTALL_NAME='$(SLIBNAME_WITH_MAJOR)'    
  4. SLIB_INSTALL_LINKS='$(SLIBNAME)'  
之后进行常规的configure配置,make, make install步骤即可,下面给出一个常规的脚本示例
  1. make clean    
  2.     
  3. export NDK=xxxx/android-ndk-r10e  
  4. export PREBUILT=$NDK/toolchains/arm-linux-androideabi-4.8/prebuilt    
  5. export PLATFORM=$NDK/platforms/android-8/arch-arm    
  6. export PREFIX=../android_ffmpeglib  
  7.    
  8.   ./configure --target-os=linux --prefix=$PREFIX \    
  9. --enable-cross-compile \    
  10. --enable-runtime-cpudetect \    
  11. --disable-asm \    
  12. --arch=arm \    
  13. --cc=$PREBUILT/windows/bin/arm-linux-androideabi-gcc \    
  14. --cross-prefix=$PREBUILT/windows/bin/arm-linux-androideabi- \    
  15. --disable-stripping \    
  16. --nm=$PREBUILT/windows/bin/arm-linux-androideabi-nm \    
  17. --sysroot=$PLATFORM \    
  18. --enable-gpl --enable-shared --disable-static --enable-small \    
  19. --disable-ffprobe --disable-ffplay --disable-ffmpeg --disable-ffserver --disable-debug \    
  20. --extra-cflags="-fPIC -DANDROID -D__thumb__ -mthumb -Wfatal-errors -Wno-deprecated -mfloat-abi=softfp -marm -march=armv7-a"     
  21.    
  22. make    
  23. make install  
成功编译后,可以看到如下类库



在java中通过JNI使用ffmpeg

JNI 即java本地接口,java native interface,它是一个协议, 该协议用来沟通Java代码和外部的本地C/C++代码, 通过该协议 Java代码可以调用外部的本地代码, 外部的C/C++ 代码可以调用Java代码。简单来说,就是将一个C语言的方法映射到Java的某个方法上;

JNI中的一些概念 :

-- native : Java语言中修饰本地方法的修饰符, 被该修饰符修饰的方法没有方法体;

-- Native方法 : 在Java语言中被native关键字修饰的方法是Native方法;

-- JNI层 : Java声明Native方法的部分;

-- JNI函数 : JNIEnv提供的函数, 这些函数在jni.h中进行定义;

-- JNI方法 : Native方法对应的JNI层实现的 C/C++方法, 即在jni目录中实现的那些C语言代码;

具体流程可以参照ndk的sample目录下的hellojni项目,总结起来有如下几个步骤
1、创建常规Android项目
2、声明Native方法,形如public native String stringFromJNI();
3、创建c文件
在工程根目录下创建 jni 目录, 然后创建一个c语言源文件, 在文件中引入 include <jni.h>。c语言方法声明形如

  1. jstring  
  2. Java_com_example_hellojni_HelloJni_stringFromJNI( JNIEnv* env,  
  3.                                                   jobject thiz )  
jstring 是 Java语言中的String类型, 方法名格式为 : Java_完整包名类名_方法名();

-- JNIEnv参数 : 代表的是Java环境, 通过这个环境可以调用Java里面的方法;

-- jobject参数 : 调用C语言方法的对象, thiz对象表示当前的对象, 即调用JNI方法所在的类;

4、编写Android.mk文件
就好比常用的makefile,形如
  1. LOCAL_PATH := $(call my-dir)  
  2.   
  3. include $(CLEAR_VARS)  
  4.   
  5. LOCAL_MODULE    := hello-jni  
  6. LOCAL_SRC_FILES := hello-jni.c  
  7.   
  8. include $(BUILD_SHARED_LIBRARY)  
-- LOCAL_PATH : 代表mk文件所在的目录;

-- include $(CLEAR_VARS) : 编译工具函数, 通过该函数可以进行一些初始化操作;

-- LOCAL_MODULE : 编译后的 .so 后缀文件叫什么名字;

-- LOCAL_SRC_FILES: 指定编译的源文件名称;

-- include $(BUILD_SHARED_LIBRARY) : 告诉编译器需要生成动态库;

5、NDK编译生成动态库
利用上面写好的.mk文件,进入 cygdrive 找到windows目录下对应的文件, 编译完成之后, 会自动生成so文件并放在libs目录下, 之后就可以在Java中调用C语言方法了;

6、java中加载动态库
在Java类中的静态代码块中使用System.LoadLibrary()方法加载编译好的 .so 动态库,形如
  1. static {  
  2.         System.loadLibrary("hello-jni");  
  3.     }  


需要说明的是,调试JNI程序非常麻烦,无法进入c文件中进行单步调试,只能通过输出一些信息然后利用logcat进行调试,所以也可以先在vs里面把c文件的内容跑一遍简单验证一下。

参照上面的基本流程,具体到利用ffmpeg实现安卓摄像头数据的编码
第一步:我们声明如下四个Native方法

  1. //JNI  
  2. //初始化,读取待编码数据的宽和高  
  3.     public native int initial(int width,int height);  
  4. //读取yuv数据进行编码  
  5.     public native int encode(byte[] yuvimage);  
  6. //清空缓存的帧  
  7.     public native int flush();  
  8. //清理  
  9.     public native int close();  


第二步:对应的c文件内容如下,基本就是一个将yuv数据编码为H.264的flv文件的流程,唯一需要注意的就是安卓摄像头拍摄数据的像素格式为NV21,需要转换为YUV420P才能进行编码

  1. /** 
  2.  * 基于FFmpeg安卓摄像头编码 
  3.  * FFmpeg Android Camera Encoder 
  4.  * 
  5.  * 张晖 Hui Zhang 
  6.  * zhanghuicuc@gmail.com 
  7.  * 中国传媒大学/数字电视技术 
  8.  * Communication University of China / Digital TV Technology 
  9.  * 
  10.  * 
  11.  */  
  12.   
  13. #include <stdio.h>  
  14. #include <time.h>   
  15.   
  16. #include "libavcodec/avcodec.h"  
  17. #include "libavformat/avformat.h"  
  18. #include "libswscale/swscale.h"  
  19. #include "libavutil/log.h"  
  20.   
  21. #ifdef ANDROID  
  22. #include <jni.h>  
  23. #include <android/log.h>  
  24. #define LOGE(format, ...)  __android_log_print(ANDROID_LOG_ERROR, "(>_<)", format, ##__VA_ARGS__)  
  25. #define LOGI(format, ...)  __android_log_print(ANDROID_LOG_INFO,  "(=_=)", format, ##__VA_ARGS__)  
  26. #else  
  27. #define LOGE(format, ...)  printf("(>_<) " format "\n", ##__VA_ARGS__)  
  28. #define LOGI(format, ...)  printf("(^_^) " format "\n", ##__VA_ARGS__)  
  29. #endif  
  30.   
  31. AVFormatContext *ofmt_ctx;  
  32. AVStream* video_st;  
  33. AVCodecContext* pCodecCtx;  
  34. AVCodec* pCodec;  
  35. AVPacket enc_pkt;  
  36. AVFrame *pFrameYUV;  
  37.   
  38. int framecnt = 0;  
  39. int yuv_width;  
  40. int yuv_height;  
  41. int y_length;  
  42. int uv_length;  
  43. int64_t start_time;  
  44.   
  45. //Output FFmpeg's av_log()  
  46. void custom_log(void *ptr, int level, const char* fmt, va_list vl){  
  47.     FILE *fp=fopen("/storage/emulated/0/av_log.txt","a+");  
  48.     if(fp){  
  49.         vfprintf(fp,fmt,vl);  
  50.         fflush(fp);  
  51.         fclose(fp);  
  52.     }  
  53. }  
  54.   
  55. JNIEXPORT jint JNICALL Java_com_zhanghui_test_MainActivity_initial  
  56.   (JNIEnv *env, jobject obj,jint width,jint height)  
  57. {  
  58.     const char* out_path = "/sdcard/zhanghui/testffmpeg.flv";  
  59.     yuv_width=width;  
  60.     yuv_height=height;  
  61.     y_length=width*height;  
  62.     uv_length=width*height/4;  
  63.   
  64.     //FFmpeg av_log() callback  
  65.     av_log_set_callback(custom_log);  
  66.   
  67.     av_register_all();  
  68.   
  69.     //output initialize  
  70.     avformat_alloc_output_context2(&ofmt_ctx, NULL, "flv", out_path);  
  71.     //output encoder initialize  
  72.     pCodec = avcodec_find_encoder(AV_CODEC_ID_H264);  
  73.     if (!pCodec){  
  74.         LOGE("Can not find encoder!\n");  
  75.         return -1;  
  76.     }  
  77.     pCodecCtx = avcodec_alloc_context3(pCodec);  
  78.     pCodecCtx->pix_fmt = PIX_FMT_YUV420P;  
  79.     pCodecCtx->width = width;  
  80.     pCodecCtx->height = height;  
  81.     pCodecCtx->time_base.num = 1;  
  82.     pCodecCtx->time_base.den = 30;  
  83.     pCodecCtx->bit_rate = 800000;  
  84.     pCodecCtx->gop_size = 300;  
  85.     /* Some formats want stream headers to be separate. */  
  86.     if (ofmt_ctx->oformat->flags & AVFMT_GLOBALHEADER)  
  87.         pCodecCtx->flags |= CODEC_FLAG_GLOBAL_HEADER;  
  88.   
  89.     //H264 codec param  
  90.     //pCodecCtx->me_range = 16;  
  91.     //pCodecCtx->max_qdiff = 4;  
  92.     //pCodecCtx->qcompress = 0.6;  
  93.     pCodecCtx->qmin = 10;  
  94.     pCodecCtx->qmax = 51;  
  95.     //Optional Param  
  96.     pCodecCtx->max_b_frames = 3;  
  97.     // Set H264 preset and tune  
  98.     AVDictionary *param = 0;  
  99.     av_dict_set(?m, "preset""ultrafast", 0);  
  100.     av_dict_set(?m, "tune""zerolatency", 0);  
  101.   
  102.     if (avcodec_open2(pCodecCtx, pCodec, ?m) < 0){  
  103.         LOGE("Failed to open encoder!\n");  
  104.         return -1;  
  105.     }  
  106.   
  107.     //Add a new stream to output,should be called by the user before avformat_write_header() for muxing  
  108.     video_st = avformat_new_stream(ofmt_ctx, pCodec);  
  109.     if (video_st == NULL){  
  110.         return -1;  
  111.     }  
  112.     video_st->time_base.num = 1;  
  113.     video_st->time_base.den = 30;  
  114.     video_st->codec = pCodecCtx;  
  115.   
  116.     //Open output URL,set before avformat_write_header() for muxing  
  117.     if (avio_open(&ofmt_ctx->pb, out_path, AVIO_FLAG_READ_WRITE) < 0){  
  118.         LOGE("Failed to open output file!\n");  
  119.         return -1;  
  120.     }  
  121.   
  122.     //Write File Header  
  123.     avformat_write_header(ofmt_ctx, NULL);  
  124.   
  125.     start_time = av_gettime();  
  126.     return 0;  
  127. }  
  128.   
  129. JNIEXPORT jint JNICALL Java_com_zhanghui_test_MainActivity_encode  
  130.   (JNIEnv *env, jobject obj, jbyteArray yuv)  
  131. {  
  132.     int ret;  
  133.     int enc_got_frame=0;  
  134.     int i=0;  
  135.   
  136.     pFrameYUV = avcodec_alloc_frame();  
  137.     uint8_t *out_buffer = (uint8_t *)av_malloc(avpicture_get_size(PIX_FMT_YUV420P, pCodecCtx->width, pCodecCtx->height));  
  138.     avpicture_fill((AVPicture *)pFrameYUV, out_buffer, PIX_FMT_YUV420P, pCodecCtx->width, pCodecCtx->height);  
  139.   
  140.     //安卓摄像头数据为NV21格式,此处将其转换为YUV420P格式  
  141.     jbyte* in= (jbyte*)(*env)->GetByteArrayElements(env,yuv,0);  
  142.     memcpy(pFrameYUV->data[0],in,y_length);  
  143.     for(i=0;i<uv_length;i++)  
  144.     {  
  145.         *(pFrameYUV->data[2]+i)=*(in+y_length+i*2);  
  146.         *(pFrameYUV->data[1]+i)=*(in+y_length+i*2+1);  
  147.     }  
  148.   
  149.     pFrameYUV->format = AV_PIX_FMT_YUV420P;  
  150.     pFrameYUV->width = yuv_width;  
  151.     pFrameYUV->height = yuv_height;  
  152.   
  153.     enc_pkt.data = NULL;  
  154.     enc_pkt.size = 0;  
  155.     av_init_packet(&enc_pkt);  
  156.     ret = avcodec_encode_video2(pCodecCtx, &enc_pkt, pFrameYUV, &enc_got_frame);  
  157.     av_frame_free(&pFrameYUV);  
  158.   
  159.     if (enc_got_frame == 1){  
  160.         LOGI("Succeed to encode frame: %5d\tsize:%5d\n", framecnt, enc_pkt.size);  
  161.         framecnt++;  
  162.         enc_pkt.stream_index = video_st->index;  
  163.   
  164.         //Write PTS  
  165.         AVRational time_base = ofmt_ctx->streams[0]->time_base;//{ 1, 1000 };  
  166.         AVRational r_framerate1 = {60, 2 };//{ 50, 2 };  
  167.         AVRational time_base_q = { 1, AV_TIME_BASE };  
  168.         //Duration between 2 frames (us)  
  169.         int64_t calc_duration = (double)(AV_TIME_BASE)*(1 / av_q2d(r_framerate1));  //内部时间戳  
  170.         //Parameters  
  171.         //enc_pkt.pts = (double)(framecnt*calc_duration)*(double)(av_q2d(time_base_q)) / (double)(av_q2d(time_base));  
  172.         enc_pkt.pts = av_rescale_q(framecnt*calc_duration, time_base_q, time_base);  
  173.         enc_pkt.dts = enc_pkt.pts;  
  174.         enc_pkt.duration = av_rescale_q(calc_duration, time_base_q, time_base); //(double)(calc_duration)*(double)(av_q2d(time_base_q)) / (double)(av_q2d(time_base));  
  175.         enc_pkt.pos = -1;  
  176.   
  177.         //Delay  
  178.         int64_t pts_time = av_rescale_q(enc_pkt.dts, time_base, time_base_q);  
  179.         int64_t now_time = av_gettime() - start_time;  
  180.         if (pts_time > now_time)  
  181.             av_usleep(pts_time - now_time);  
  182.   
  183.         ret = av_interleaved_write_frame(ofmt_ctx, &enc_pkt);  
  184.         av_free_packet(&enc_pkt);  
  185.     }  
  186.   
  187.     return 0;  
  188. }  
  189.   
  190. JNIEXPORT jint JNICALL Java_com_zhanghui_test_MainActivity_flush  
  191.   (JNIEnv *env, jobject obj)  
  192. {  
  193.     int ret;  
  194.     int got_frame;  
  195.     AVPacket enc_pkt;  
  196.     if (!(ofmt_ctx->streams[0]->codec->codec->capabilities &  
  197.         CODEC_CAP_DELAY))  
  198.         return 0;  
  199.     while (1) {  
  200.         enc_pkt.data = NULL;  
  201.         enc_pkt.size = 0;  
  202.         av_init_packet(&enc_pkt);  
  203.         ret = avcodec_encode_video2(ofmt_ctx->streams[0]->codec, &enc_pkt,  
  204.             NULL, &got_frame);  
  205.         if (ret < 0)  
  206.             break;  
  207.         if (!got_frame){  
  208.             ret = 0;  
  209.             break;  
  210.         }  
  211.         LOGI("Flush Encoder: Succeed to encode 1 frame!\tsize:%5d\n", enc_pkt.size);  
  212.   
  213.         //Write PTS  
  214.         AVRational time_base = ofmt_ctx->streams[0]->time_base;//{ 1, 1000 };  
  215.         AVRational r_framerate1 = { 60, 2 };  
  216.         AVRational time_base_q = { 1, AV_TIME_BASE };  
  217.         //Duration between 2 frames (us)  
  218.         int64_t calc_duration = (double)(AV_TIME_BASE)*(1 / av_q2d(r_framerate1));  //内部时间戳  
  219.         //Parameters  
  220.         enc_pkt.pts = av_rescale_q(framecnt*calc_duration, time_base_q, time_base);  
  221.         enc_pkt.dts = enc_pkt.pts;  
  222.         enc_pkt.duration = av_rescale_q(calc_duration, time_base_q, time_base);  
  223.   
  224.         //转换PTS/DTS(Convert PTS/DTS)  
  225.         enc_pkt.pos = -1;  
  226.         framecnt++;  
  227.         ofmt_ctx->duration = enc_pkt.duration * framecnt;  
  228.   
  229.         /* mux encoded frame */  
  230.         ret = av_interleaved_write_frame(ofmt_ctx, &enc_pkt);  
  231.         if (ret < 0)  
  232.             break;  
  233.     }  
  234.         //Write file trailer  
  235.         av_write_trailer(ofmt_ctx);  
  236.         return 0;  
  237. }  
  238.   
  239. JNIEXPORT jint JNICALL Java_com_zhanghui_test_MainActivity_close  
  240.   (JNIEnv *env, jobject obj)  
  241. {  
  242.     if (video_st)  
  243.         avcodec_close(video_st->codec);  
  244.     avio_close(ofmt_ctx->pb);  
  245.     avformat_free_context(ofmt_ctx);  
  246.     return 0;  
  247. }  


第三步:编写Android.mk如下,这里要在jni目录下放入ffmpeg的头文件,就跟平时的调用方法一样
  1. LOCAL_PATH := $(call my-dir)  
  2.   
  3. # FFmpeg library  
  4. include $(CLEAR_VARS)  
  5. LOCAL_MODULE := avcodec  
  6. LOCAL_SRC_FILES := libavcodec-56.so  
  7. include $(PREBUILT_SHARED_LIBRARY)  
  8.   
  9. include $(CLEAR_VARS)  
  10. LOCAL_MODULE := avdevice  
  11. LOCAL_SRC_FILES := libavdevice-56.so  
  12. include $(PREBUILT_SHARED_LIBRARY)  
  13.   
  14. include $(CLEAR_VARS)  
  15. LOCAL_MODULE := avfilter  
  16. LOCAL_SRC_FILES := libavfilter-5.so  
  17. include $(PREBUILT_SHARED_LIBRARY)  
  18.   
  19. include $(CLEAR_VARS)  
  20. LOCAL_MODULE := avformat  
  21. LOCAL_SRC_FILES := libavformat-56.so  
  22. include $(PREBUILT_SHARED_LIBRARY)  
  23.   
  24. include $(CLEAR_VARS)  
  25. LOCAL_MODULE := avutil  
  26. LOCAL_SRC_FILES := libavutil-54.so  
  27. include $(PREBUILT_SHARED_LIBRARY)  
  28.   
  29. include $(CLEAR_VARS)  
  30. LOCAL_MODULE := postproc  
  31. LOCAL_SRC_FILES := libpostproc-53.so  
  32. include $(PREBUILT_SHARED_LIBRARY)  
  33.   
  34. include $(CLEAR_VARS)  
  35. LOCAL_MODULE := swresample  
  36. LOCAL_SRC_FILES := libswresample-1.so  
  37. include $(PREBUILT_SHARED_LIBRARY)  
  38.   
  39. include $(CLEAR_VARS)  
  40. LOCAL_MODULE := swscale  
  41. LOCAL_SRC_FILES := libswscale-3.so  
  42. include $(PREBUILT_SHARED_LIBRARY)  
  43.   
  44. # Program  
  45. include $(CLEAR_VARS)  
  46. LOCAL_MODULE := encode  
  47. LOCAL_SRC_FILES :=encode.c  
  48. LOCAL_C_INCLUDES += $(LOCAL_PATH)/include  
  49. LOCAL_LDLIBS := -llog -lz  
  50. LOCAL_SHARED_LIBRARIES := avcodec avdevice avfilter avformat avutil postproc swresample swscale  
  51. include $(BUILD_SHARED_LIBRARY)  


第四步:使用cygwin切换到当前项目的jni目录下,输入ndk-build进行编译即可,如下



此时就可以在当前项目的libs目录下看到ffmpeg所有的类库以及我们自己的类库,我这里是libencode.so,如下



第五步:在java中加载动态库
  1. static{  
  2.         System.loadLibrary("avutil-54");  
  3.         System.loadLibrary("swresample-1");  
  4.         System.loadLibrary("avcodec-56");  
  5.         System.loadLibrary("avformat-56");  
  6.         System.loadLibrary("swscale-3");  
  7.         System.loadLibrary("postproc-53");  
  8.         System.loadLibrary("avfilter-5");  
  9.         System.loadLibrary("avdevice-56");  
  10.         System.loadLibrary("encode");  
  11.     }  


至此,就可以在java中调用我们声明的四个方法了。

java部分获取摄像头数据并编码的流程

简单来说,就是利用Camera的PreviewCallback获得摄像头数据,在通过AsyncTask开启后台线程将摄像头数据进行编码。这里为了避免编码过程占用过多的硬件资源,将编码视频宽和高设置为了640和480,。
这 里有两个坑,一是onPreviewFrame方法的arg0参数就是YUV数据了,不要再转换为YuvImage对象了,否则会在头部加上一些多余的信 息,导致编码错误,二是用于清空缓存帧的flush方法不能在oncreate主线程中调用,否则会导致程序闪退,目前还不清楚原因,所以这里连同 close()方法一起放到了onPause方法中进行调用,在安卓开发方面我还是新手,希望有了解这个问题怎么解决的朋友多多指教。
  1. package com.zhanghui.test;<br><br>import java.io.IOException;<br>import android.annotation.TargetApi;<br>import android.app.Activity;<br>import android.content.pm.PackageManager;<br>import android.hardware.Camera;<br>import android.os.AsyncTask;<br>import android.os.Build;<br>import android.os.Bundle;<br>import android.util.Log;<br>import android.view.Menu;<br>import android.view.MenuItem;<br>import android.view.SurfaceHolder;<br>import android.view.SurfaceView;<br>import android.view.View;<br>import android.widget.Button;<br>import android.widget.Toast;<br><br>@SuppressWarnings("deprecation")<br>public class MainActivity extends Activity {<br>    private static final String TAG= "MainActivity";<br>    private Button mTakeButton;<br> private Camera mCamera;<br> private SurfaceView mSurfaceView;<br>   private SurfaceHolder mSurfaceHolder;<br>   private boolean isRecording = false;<br>    <br>    private class StreamTask extends AsyncTask<Void, Void, Void>{<br>     <br>        private byte[] mData;<br><br>        // 构造函数<br>        StreamTask(byte[] data) {<br>            this.mData = data;<br>        }<br>        <br>        @Override<br>        protected Void doInBackground(Void... params) {   <br>            // TODO Auto-generated method stub<br>         if(mData!=null){<br>            Log.i(TAG, "fps: " + mCamera.getParameters().getPreviewFrameRate());         <br>            encode(mData);<br>            }<br>            <br>          return null;<br>        }        <br>    }   <br> private StreamTask mStreamTask;<br> <br>    @Override<br>    protected void onCreate(Bundle savedInstanceState) { <br>        super.onCreate(savedInstanceState);<br>        setContentView(R.layout.activity_main);<br>        <br>        final Camera.PreviewCallback mPreviewCallbacx=new Camera.PreviewCallback() {<br>            @Override<br>           public void onPreviewFrame(byte[] arg0, Camera arg1) {<br>              // TODO Auto-generated method stub<br>               if(null != mStreamTask){<br>                       switch(mStreamTask.getStatus()){<br>                        case RUNNING:<br>                           return;<br>                     case PENDING:                                    <br>                           mStreamTask.cancel(false);                      <br>                            break;                      <br>                        }<br>                   }<br>                mStreamTask = new StreamTask(arg0);<br>                 mStreamTask.execute((Void)null);<br>           }<br>       };<br><br>        <br>        mTakeButton=(Button)findViewById(R.id.take_button);<br>        <br>        PackageManager pm=this.getPackageManager();<br>        boolean hasCamera=pm.hasSystemFeature(PackageManager.FEATURE_CAMERA) ||<br>             pm.hasSystemFeature(PackageManager.FEATURE_CAMERA_FRONT) ||<br>             Build.VERSION.SDK_INT<Build.VERSION_CODES.GINGERBREAD;<br>        if(!hasCamera)<br>         mTakeButton.setEnabled(false);<br>        <br>        mTakeButton.setOnClickListener(new View.OnClickListener() {   <br>            @Override<br>           public void onClick(View arg0) {<br>                // TODO Auto-generated method stub<br>              if(mCamera!=null)<br>               {<br>                   if (isRecording) {                      <br>                        mTakeButton.setText("Start");                   <br>                        mCamera.setPreviewCallback(null);    <br>                       Toast.makeText(MainActivity.this, "encode done", Toast.LENGTH_SHORT).show();                                                                   <br>                     isRecording = false;               <br>                 }else {  <br>                       mTakeButton.setText("Stop");<br>                        initial(mCamera.getParameters().getPreviewSize().width,mCamera.getParameters().getPreviewSize().height);<br>                        mCamera.setPreviewCallback(mPreviewCallbacx);<br>                       isRecording = true;  <br>                   } <br>              }<br>           }<br>       });<br>       <br>       <br>        mSurfaceView=(SurfaceView)findViewById(R.id.surfaceView1);<br>        SurfaceHolder holder=mSurfaceView.getHolder();<br>        holder.setType(SurfaceHolder.SURFACE_TYPE_PUSH_BUFFERS);<br>        <br>        holder.addCallback(new SurfaceHolder.Callback() {<br>          <br>            @Override<br>           public void surfaceDestroyed(SurfaceHolder arg0) {<br>              // TODO Auto-generated method stub<br>              if(mCamera!=null)<br>               {<br>                   mCamera.stopPreview();<br>                  mSurfaceView = null;  <br>                  mSurfaceHolder = null;   <br>               }<br>           }<br>           <br>            @Override<br>           public void surfaceCreated(SurfaceHolder arg0) {<br>                // TODO Auto-generated method stub<br>              try{<br>                    if(mCamera!=null){<br>                      mCamera.setPreviewDisplay(arg0);<br>                        mSurfaceHolder=arg0;<br>                    }<br>               }catch(IOException exception){<br>                  Log.e(TAG, "Error setting up preview display", exception);<br>              }<br>           }<br>           <br>            @Override<br>           public void surfaceChanged(SurfaceHolder arg0, int arg1, int arg2, int arg3) {<br>              // TODO Auto-generated method stub<br>              if(mCamera==null) return;<br>               Camera.Parameters parameters=mCamera.getParameters();           <br>                parameters.setPreviewSize(640,480);<br>             parameters.setPictureSize(640,480);<br>             mCamera.setParameters(parameters);<br>              try{<br>                    mCamera.startPreview();<br>                 mSurfaceHolder=arg0;<br>                }catch(Exception e){<br>                    Log.e(TAG, "could not start preview", e);<br>                   mCamera.release();<br>                  mCamera=null;<br>               }<br>           }<br>       });<br>        <br>    }<br>    <br>    @TargetApi(9)<br>    @Override<br>    protected void onResume(){<br>        super.onResume();<br>       if(Build.VERSION.SDK_INT>=Build.VERSION_CODES.GINGERBREAD){<br>          mCamera=Camera.open(0);<br>     }else<br>       {<br>           mCamera=Camera.open();<br>      }<br>    }<br>    <br>    @Override<br>    protected void onPause(){<br>        super.onPause();<br>        flush();<br>        close();<br>        if(mCamera!=null){<br>          mCamera.release();<br>          mCamera=null;<br>       }<br>    }<br>    <br><br>    @Override<br>    public boolean onCreateOptionsMenu(Menu menu) {<br>        // Inflate the menu; this adds items to the action bar if it is present.<br>        getMenuInflater().inflate(R.menu.main, menu);<br>        return true;<br>    }<br><br>    @Override<br>    public boolean onOptionsItemSelected(MenuItem item) {<br>        // Handle action bar item clicks here. The action bar will<br>        // automatically handle clicks on the Home/Up button, so long<br>        // as you specify a parent activity in AndroidManifest.xml.<br>        int id = item.getItemId();<br>        if (id == R.id.action_settings) {<br>            return true;<br>        }<br>        return super.onOptionsItemSelected(item);<br>    }<br>    <br>  //JNI<br>    public native int initial(int width,int height);<br>    public native int encode(byte[] yuvimage);<br>    public native int flush();<br>    public native int close();<br>    <br>    <br>    static{  
  2.         System.loadLibrary("avutil-54");  
  3.         System.loadLibrary("swresample-1");  
  4.         System.loadLibrary("avcodec-56");  
  5.         System.loadLibrary("avformat-56");  
  6.         System.loadLibrary("swscale-3");  
  7.         System.loadLibrary("postproc-53");  
  8.         System.loadLibrary("avfilter-5");  
  9.         System.loadLibrary("avdevice-56");  
  10.         System.loadLibrary("encode");  
  11.     }<br>}<br>  


至此,就完成了全部功能的开发,程序截图如下
首先由用户按下take键开始摄像



此时按键转为stop,按下即可停止摄像



按下stop后,即停止摄像,弹出encode done信息,退出程序即可在对应目录下看到编码的flv视频



    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多