Apple Vision Pro의 새로운 라이브 캡션 기능은 실시간 번역으로 이어질 수 있습니다
(deepl 단순 번역으로 오역이 있을수 있습니다 자세한 내용은 원문 참조 부탁드립니다)
Apple Vision Pro의 새로운 라이브 캡션 기능은 실시간 번역으로 이어질 수 있습니다
Apple은 청각 장애인을 위한 라이브 캡션이 포함된 다양한 접근성 기능을 Vision Pro에 도입할 예정이라고 발표했습니다. 이는 향후 언젠가 실시간 번역 기능을 탑재하기 위한 중요한 첫걸음으로 보입니다.
이 업데이트는 시스템 전체에 적용되므로 라이브 캡션과 같은 기능을 통해 사용자는 실시간 대화에서 음성 대화뿐만 아니라 자막이 없는 FaceTime이나 스트리밍 콘텐츠와 같은 모든 앱의 오디오도 함께 따라갈 수 있습니다.
한편, 가장 최근에 출시된 ChatGPT-4o의 데모(아래 참조)는 실시간 번역이 기대 이상으로 얼마나 향상되었는지를 보여줌으로써 앞으로의 발전을 예고하는 신호탄이 될 수 있습니다.
Apple이 가까운 미래에 이러한 기능을 도입하기로 결정한다면, 곧 TV나 비디오 게임에서 볼 수 있는 것처럼 대면 대화에도 자막이 제공될 수 있을 것입니다. 또한 아직 자막이 제공되지 않는 콘텐츠도 혜택을 받을 수 있게 되어 터키 드라마의 최신 에피소드나 이탈리아 세리에 B 축구 경기를 따라잡거나 스코틀랜드 사람들이 실제로 무슨 말을 하는지 알아낼 수 있게 될 수도 있습니다. 물론 완벽하다는 말은 아니지만, 지금 당장 가상으로 구현한다면 어느 정도는 성공할 수 있을 것입니다.
물론 애플이 이러한 기능을 처음으로 강조한 것은 아닙니다. 구글이 프로젝트 아이리스 AR 글래스를 중단하기 전에도 구글은 위에서 설명한 기능을 수행하는 중요한 추가 기능으로 실시간 번역을 내세웠습니다.