[swift] Swift에서 카메라로 음성인식하기

첫 번째 단계는 iOS 기기의 카메라에 액세스하는 것입니다. 이를 위해 AVFoundation 프레임워크를 사용하여 카메라를 제어하고 비디오 데이터를 캡처할 수 있습니다. AVCaptureSession 및 관련 클래스를 사용하여 카메라를 초기화하고 설정합니다. 또한 AVCaptureAudioDataOutput을 사용하여 오디오 데이터를 캡처하고 처리할 수 있습니다.

다음으로 음성을 인식하기 위해 Speech 프레임워크를 사용할 수 있습니다. Speech 프레임워크를 사용하여 오디오 입력을 텍스트로 변환할 수 있습니다. SFSpeechRecognizer 및 SFSpeechAudioBufferRecognitionRequest를 사용하여 오디오를 텍스트로 변환하는 인식기를 설정하고 시작할 수 있습니다.

아래는 Swift에서 카메라로 음성을 인식하는 간단한 예제 코드입니다.

import UIKit
import AVFoundation
import Speech

class ViewController: UIViewController, AVCaptureAudioDataOutputSampleBufferDelegate, SFSpeechRecognizerDelegate {
    
    let session = AVCaptureSession()
    let audioOutput = AVCaptureAudioDataOutput()
    let recognizer = SFSpeechRecognizer()
    
    override func viewDidLoad() {
        super.viewDidLoad()
        
        setupCamera()
        setupSpeechRecognition()
        
        // Start capturing audio and processing for speech recognition
        session.startRunning()
    }
    
    func setupCamera() {
        // Set up camera capture session
        // ...
    }
    
    func setupSpeechRecognition() {
        audioOutput.setSampleBufferDelegate(self, queue: DispatchQueue(label: "audioQueue"))
        session.addOutput(audioOutput)
        // Set up speech recognition request and recognizer
        // ...
    }
    
    func captureOutput(_ output: AVCaptureOutput, didOutput sampleBuffer: CMSampleBuffer, from connection: AVCaptureConnection) {
        // Process audio data for speech recognition
        // ...
    }
}

이 예제 코드에서는 AVFoundation을 사용하여 카메라로부터 오디오 데이터를 캡처하고, Speech 프레임워크를 사용하여 오디오를 텍스트로 변환하는 음성인식 기능을 설정합니다. 원하는 경우 이 코드를 기반으로 응용 프로그램에 맞게 확장할 수 있습니다.

더 자세한 내용은 다음 문서를 참고하세요.