在Android系统中,实现一个具有录像功能的应用程序只需要调用MediaRecorder的相应接口即可。下面简单分析下从MediaRecorder往下的结构:
支撑MediaRecorder的framework结构
APP调用的应用层MediaRecorder接口最终对应的实质接口位于StagefrightRecorder.cpp中,在这里面会统一管理录像需要的视频数据、音频数据、编码器等;这里只关注视频数据的情况,StagefrightRecorder通过CameraSource来获取视频数据,这个CameraSource往下的结构:
CameraSource往下的软件结构
可以看到CameraSource最终还是通过Camera框架中的客户端接口来实现对camera的控制。对于camera录像的回显和编码,CameraSource中注册的数据回调接口会传递到HAL层,这样HAL层调用回调后StagefrightRecord即可通过CameraSource得到图像帧来编码;另外,开始录像时调用setPreviewDisplay接口传递的一个surface到HAL层后,HAL层会直接去写surface对应的buffer来回显。
Android camera HAL的部分接口
关于camera的HAL层接口,以上有列举一些,camera的所有操作都由这些经由这些HAL层的接口,各个平台再根据不同的架构和硬件来做不同的实现。如,camera预览时需要设置曝光值、饱和度时,就是通过get_parameters来获得支持的范围再通过set_parameters设置下来。
相关文件路径
frameworks/base/media/java/android/media/MediaRecorder.java
frameworks/base/media/jni/android_media_MediaRecorder.cpp
frameworks /av/media/libmedia/mediarecorder.cpp
frameworks /av/media/libmediaplayerservice/MediaPlayerService.cpp
frameworks /av/media/libmediaplayerservice/MediaRecorderClient.cpp
frameworks/av/media/libmediaplayerservice/StagefrightRecorder.cpp
frameworks /av/media/libstagefright/CameraSource.cpp
frameworks/av/camera/Camera.cpp
frameworks/av/services/camera/libcameraservice/CameraService.cpp
frameworks/av/services/camera/libcameraservice/api1/CameraClient.cpp
frameworks/av/services/camera/libcameraservice/device1/CameraHardwareInterface.h
cameravideo的Demo
package com.example.demo_app;
import java.io.IOException;
import android.app.Activity;
import android.content.pm.ActivityInfo;
import android.graphics.PixelFormat;
import android.media.MediaRecorder;
import android.os.Bundle;
import android.view.SurfaceHolder;
import android.view.SurfaceView;
import android.view.View;
import android.view.View.OnClickListener;
import android.view.Window;
import android.view.WindowManager;
import android.widget.Button;
public class MainActivity extends Activity implements SurfaceHolder.Callback{
private Button start;// 开始录制按钮private Button stop;// 停止录制按钮private MediaRecorder mediarecorder;// 录制视频的类private SurfaceView surfaceview;// 显示视频的控件// 用来显示视频的一个接口,我靠不用还不行,也就是说用mediarecorder录制视频还得给个界面看// 想偷偷录视频的同学可以考虑别的办法。。嗯需要实现这个接口的Callback接口private SurfaceHolder surfaceHolder;
public void onCreate(Bundle savedInstanceState){
super.onCreate(savedInstanceState);
requestWindowFeature(Window.FEATURE_NO_TITLE);// 去掉标题栏
getWindow().setFlags(WindowManager.LayoutParams.FLAG_FULLSCREEN,
WindowManager.LayoutParams.FLAG_FULLSCREEN);// 设置全屏// 设置横屏显示
setRequestedOrientation(ActivityInfo.SCREEN_ORIENTATION_LANDSCAPE);
// 选择支持半透明模式,在有surfaceview的activity中使用。
getWindow().setFormat(PixelFormat.TRANSLUCENT);
setContentView(R.layout.activity_main);
init();
private void init(){
start = (Button) this.findViewById(R.id.start);
stop = (Button) this.findViewById(R.id.stop);
start.setOnClickListener(new TestVideoListener());
stop.setOnClickListener(new TestVideoListener());
surfaceview = (SurfaceView) this.findViewById(R.id.surfaceview);
SurfaceHolder holder = surfaceview.getHolder();// 取得holder
holder.addCallback(this); // holder加入回调接口// setType必须设置,要不出错.
holder.setType(SurfaceHolder.SURFACE_TYPE_PUSH_BUFFERS);
class TestVideoListener implements OnClickListener{
@OverridepublicvoidonClick(View v){
if (v == start) {
mediarecorder = new MediaRecorder();// 创建mediarecorder对象// 设置录制视频源为Camera(相机)
mediarecorder.setVideoSource(MediaRecorder.VideoSource.CAMERA);
// 设置录制完成后视频的封装格式THREE_GPP为3gp.MPEG_4为mp4
mediarecorder.setOutputFormat(MediaRecorder.OutputFormat.MPEG_4);
// 设置录制的视频编码h263 h264
mediarecorder.setVideoEncoder(MediaRecorder.VideoEncoder.H264);
// 设置视频录制的分辨率。必须放在设置编码和格式的后面,否则报错
mediarecorder.setVideoSize(800, 480);
// 设置录制的视频帧率。必须放在设置编码和格式的后面,否则报错
mediarecorder.setVideoFrameRate(25);
mediarecorder.setVideoEncodingBitRate(8*480*800);
mediarecorder.setPreviewDisplay(surfaceHolder.getSurface());
// 设置视频文件输出的路径
mediarecorder.setOutputFile("/sdcard/love.mp4");
try {
// 准备录制
mediarecorder.prepare();
// 开始录制
mediarecorder.start();
} catch (IllegalStateException e) {
// TODO Auto-generated catch block
e.printStackTrace();
} catch (IOException e) {
// TODO Auto-generated catch block
e.printStackTrace();
if (v == stop) {
if (mediarecorder != null) {
// 停止录制
mediarecorder.stop();
// 释放资源
mediarecorder.release();
mediarecorder = null;
@Override
public void surfaceChanged(SurfaceHolder holder, int format, int width,
int height){
// 将holder,这个holder为开始在oncreat里面取得的holder,将它赋给surfaceHolder
surfaceHolder = holder;
@Override
public void surfaceCreated(SurfaceHolder holder){
// 将holder,这个holder为开始在oncreat里面取得的holder,将它赋给surfaceHolder
surfaceHolder = holder;
@Override
public void surfaceDestroyed(SurfaceHolder holder){
// surfaceDestroyed的时候同时对象设置为null
surfaceview = null;
surfaceHolder = null;
mediarecorder = null;
我们调用Camera2的api去使用相机的过程大概可以简述如下:1、创建并确定一块SurfaceTexture用来预览数据2、获取CameraManager服务并通过Characteristic去设置相机参数3、使用CameraManager去openCamera并设置CameraDevice.StateCallback回调接口,这个回调接口会返回我们open的cameraDevice,获取到CameraDevice就获得了相机的控制权。
从上图可以看出,HAL层下面使用TiniAlsa(Android下一个简约的Alsa版本)。HAL层分为两部分,一部分为各种音频设备,每种音频设备由一个独立的库文件实现:如audio.a2dp.default.so(管理蓝牙a...
Camera的成像原理可以简单概括如下:
景物(SCENE)通过镜头(LENS)生成的光学图像投射到图像传感器(Sensor)表面上,然后转为电信号,经过A/D(模数转换)转换后变为数字图像信号,再送到数字信号处理芯片(DSP)中加工处理,再通过IO接口传输到CPU中处理,通过D
Android上的resample处理默认的情况下,Android放音的采样率固定为44.1khz,录音的采样率固定为8khz,因此底层的音频设备驱动只需设置好这两个固定的采样率。如果上层传过来的采样率与其不符的话,则Android Framework层会对音频流做resample(重采样)处理。Resample的大致流程如下:AudioResample作为最基本的类,回放和录音resample最...
Android 5.0开始出现了新的相机Camera 2 API,用来替代以前的camera api。
Camera2 API不仅提高了android系统的拍照性能,还支持RAW照片输出,还可以设置相机的对焦模式,曝光模式,快门等等。
Camera2 中主要的API类
CameraManager类 : 摄像头管理类,用于检测、打开系统摄像头,通过getCam...
Platform HW:sdm660_64
Platform SW:Android8.1.0
================================================================================================
FrameWorks层:
系统默认提供了dump当前Camera所有配置及状态的方法,方便了调试。
一、HAL之框架1. tiny4412上HAL框架audio.primary.tiny4412.so文件的Makefile:device/friendly-arm/common/libaudio/Android.mkLOCAL_SRC_FILES:= AudioHardware.cppLOCAL_MODULE := audio.primary.$(TARGET_DEVICE) #TARGET...