/ 안드로이드의 실시간 캡션은 이제 표현을 이해할 수 있습니다.

안드로이드의 실시간 캡션은 이제 표현을 이해할 수 있습니다.

2024. 12. 6. 오전 1:00:17
Google은 Android에 새로운 기능인 Expressive Captions을 도입했습니다. 이 기능은 AI를 기반으로 하여 Live Captions의 확장으로 작동하며, 음성의 어조, 볼륨, 주변 사운드까지 전달합니다. 이를 통해 실시간 캡션의 미묘함을 더 잘 이해하고, 오디오를 듣는 것만으로 소셜 신호를 수집할 수 있습니다. 그러나 AI 기반의 캡션은 정확성에 약간의 불확실성이 있을 수 있으며, 모든 사용자에게 도달하는데 몇 주가 걸릴 수 있습니다.
안드로이드의 실시간 캡션은 이제 표현을 이해할 수 있습니다.
Android의 Live Captions 기능은 일부 콘텐츠에 큰 도움이지만, 자막은 실시간으로 생성되므로 기능은 그대로의 내용을 자막으로 변환하는 것까지만 도달합니다. 이제 Expressive Captions가 이를 조금 더 풍성하게 만들어주고 있습니다.아래 첫 문단 영역에 승자 광고가 없습니다! 중간 서론 영역에 승자 광고가 없습니다!

Google은 Android에 새로운 기능인 Expressive Captions을 도입했습니다. 이 새로운 기능은 AI를 기반으로 하여 Live Captions의 확장으로 작동하며, 전통적인 캡션보다 말 말뿐만 아니라 음성의 어조, 볼륨, 그리고 심지어 주변 사운드까지 전달합니다. Google과 DeepMind가 개발한 AI 모델은 실시간으로 오디오를 분석하여 발언자의 감정과 주변 환경을 반영하는 스타일리즈된 캡션으로 번역합니다.

구글이미지를 보는 것처럼, 소문자로 '행복한 생일!'을 크게 말하는 사람을 보여주는 캡션뿐만 아니라, 웃음, 진주 또는 даже 숨소리를 나타내는 캡션이 있다고 상상해 보세요. 이러한 추가 정보는 실시간 및 소셜 콘텐츠의 미묘함을 이해하는 데 중요할 수 있습니다. 이러한 표현은 수동으로 번역된 캡션에서 흔히 볼 수 있지만, AI가 생성한 캡션에 이런 표현이 있으면 매우 유용할 것입니다. 왜냐하면 오디오를 듣는 것만으로만 듣을 수 있는 소셜 신호를 수집할 수 있기 때문입니다. 실시간 캡션의 확장으로, 표현적인 캡션은 휴대폰에서 보거나 듣는 모든 것에 대해 시스템 단계에서 사용할 수 있습니다. 예를 들어 실시간 소셜 미디어 스트림이나 IM 서비스를 통해 전송된 비디오 메시지와 같은 것에 대해.

AI 때문에 캡션은 정확하지 않을 가능성이 높아 보입니다. 존재하지 않는 힌트를 잡거나 실제로 있는 힌트를 잡지 못할 수도 있습니다. 기능이 모든 사용자에게 사용 가능할 때까지 조정이 필요할 것입니다. 그래도 시도해보고 싶으시다면 지금부터 시도해보세요. Google은 Live Captions를 갖춘 모든 Android 14 이상 스마트폰에 이 기능을 현재 출시하고 있지만, 모든 사용자에게 도달하는데 몇 주가 걸릴 수 있습니다.