[android] 안드로이드 카메라 피사체 크기

가장 먼저, 안드로이드에서 카메라에 접근하기 위해 Camera 또는 Camera2 API를 사용합니다. 그런 다음 카메라에서 획득한 이미지의 크기를 측정할 수 있습니다. 사진의 크기는 일반적으로 픽셀 단위로 제공되며, 이를 통해 피사체의 크기를 유추할 수 있습니다.

다음은 Camera API를 통해 카메라 이미지의 크기를 얻는 예제 코드입니다.

Camera.Parameters params = mCamera.getParameters();
Camera.Size size = params.getPictureSize();
int width = size.width;
int height = size.height;

// 이미지의 폭과 높이를 얻어옴

카메라2 API를 사용하는 경우에는 다음과 같이 이미지 크기를 얻을 수 있습니다.

StreamConfigurationMap map = mCameraCharacteristics.get(CameraCharacteristics.SCALER_STREAM_CONFIGURATION_MAP);
Size[] sizes = map.getOutputSizes(ImageFormat.JPEG);
Size largest = Collections.max(Arrays.asList(sizes), new CompareSizesByArea());

// 가장 큰 이미지 크기를 얻어옴

이렇게 카메라 이미지의 크기를 얻으면 피사체의 크기를 추정하는 데 도움이 됩니다. 피사체와의 거리, 렌즈의 초점 등의 요소도 함께 고려하여 정확한 크기를 측정할 수 있습니다.

참고 문헌: