중요한 이유: Apple은 글로벌 접근성 인식의 날(Global Accessibility Awareness Day)을 기념하여 곧 출시될 iOS 및 iPadOS 접근성 기능 몇 가지를 발표했습니다. 새로운 기술은 장애가 있는 사람들을 위한 것이지만, 시선 추적 및 음성 단축키는 어떤 상황에서는 누구에게나 도움이 될 수 있습니다.

MacBook을 포함한 Apple 장치는 한동안 시선 추적 기술을 지원해 왔습니다. 그러나 항상 외부 하드웨어가 필요했습니다. AI의 발전 덕분에 이제 iPhone 및 iPad 소유자는 주변 장치 없이도 장치를 제어할 수 있습니다.

Apple Eye Tracking은 전면 카메라를 사용하여 눈의 움직임을 보정하고 추적합니다. 사용자가 화면의 다른 부분을 볼 때 대화형 요소가 강조 표시됩니다. 사용자의 시선이 해당 요소에 머무를 때 탭을 등록합니다. Apple에서는 이 기능을 “Dwell Control”이라고 부릅니다. 또한 물리적인 버튼 누르기와 스와이프 동작을 모방할 수도 있습니다. 시선 추적은 운영 체제의 한 계층이므로 모든 iPhone 또는 iPad 앱과 호환됩니다.

보컬 단축키는 사용자가 핸즈프리로 제어할 수 있는 또 다른 방법입니다. 애플은 자세한 설명을 제공하지 않았습니다. 하지만 단순한 작업부터 복잡한 작업까지 자동화하는 기존 바로가기 시스템보다 사용하기 쉬워 보입니다.

우리는 표준 바로가기를 테스트한 결과, 수동 프로그래밍이 필요하기 때문에 시스템이 가치보다 더 많은 문제를 겪고 있음을 발견했습니다. 제3자 제공업체가 제공하는 적절하고 다양한 사전 제작 단축키를 사용하면 이 기능이 더욱 매력적으로 보일 것입니다. 음성 단축키는 설정하기가 더 쉬워 보이지만 더 나은 설명 없이는 이 기능이 일반 단축키 기능에 음성 활성화를 추가하는 것인지 알기 어렵습니다.

Apple의 곧 출시될 AI 패치를 통해 눈과 음성을 사용하여 iPhone 및 iPad를 제어하세요., 시보드 블로그

음성 보조 기술 제품군에 추가된 또 다른 기능은 비정형 음성 듣기입니다. 이 설정을 사용하면 Apple의 음성 인식 기술이 사용자의 음성 패턴을 찾고 학습할 수 있습니다. 이는 ALS, 뇌성마비 또는 뇌졸중과 같은 질환으로 인해 말하기에 어려움을 겪는 사람들을 Siri가 이해하는 데 도움이 될 수 있습니다.

Beckman의 음성 접근성 프로젝트 수석 조사관인 Mark Hasegawa-Johnson은 “인공 지능은 비정형 음성을 가진 수백만 명의 음성 인식을 향상시킬 수 있는 잠재력을 가지고 있습니다. 따라서 Apple이 소비자에게 이러한 새로운 접근성 기능을 제공하게 되어 매우 기쁩니다.”라고 말했습니다. 일리노이 대학교 어바나-샴페인 캠퍼스의 첨단 과학 기술 연구소.

이러한 새로운 AI 기반 기능은 모두 온보드 기계 학습을 사용하여 작동합니다. 생체 인식 데이터는 로컬에서 안전하게 저장 및 처리되며 Apple이나 iCloud로 전송되지 않습니다.

Apple은 움직이는 차량에서 휴대폰을 사용할 때 차멀미를 줄여주는 차량 동작 신호, 음성 제어, 컬러 필터, CarPlay용 사운드 인식 등 몇 가지 다른 기능도 곧 선보일 예정입니다. VoiceOver, 돋보기, 개인 음성, Live Speech 및 기타 기존 접근성 기능도 개선되고 있습니다.

Apple은 “연말 전” 외에는 구체적인 출시 일정을 제시하지 않았습니다. 그러나 회사에서는 5월 내내 접근성을 기념하므로 새로운 기능을 더 빨리 출시하는 것이 합리적입니다. 개발자들은 아마도 문제를 해결하는 마지막 단계에 있을 것입니다.