이 AI 스타트업은 인공 음성과 이를 필요로 하는 인간을 지원하고 있습니다.

 

미 육군 퇴역 군인이자 미국 국회 의사당 경찰의 은퇴한 물리적 보안 책임자인 David DuBois가 2022년에 ALS 진단을 받았을 때 그의 가족은 그가 말하는 것을 듣지 못한 채 24개월 이상을 보냈습니다.

음성 AI 회사인 WellSaid는 40분 미만의 오래된 음성 메일과 비디오를 사용하여 DuBois의 진짜 목소리와 일치하는 맞춤형 음성을 만들 수 있었습니다. DuBois가 가장 좋아하는 문구인 "You're killin' me, Smalls를 포함하여 감정과 유머가 담긴 음성입니다. "

WellSaid는 궁극적으로 인간을 대체하기보다는 인간성을 강화하는 인공 지능에 초점을 맞추고 싶다고 말합니다. 

Mixail Petrochuk은 인공 지능의 가능성을 탐구하는 비영리 연구 센터인 Paul Allen의 Ai2 Institute에서 근무하면서 워싱턴 대학교를 졸업한 지 불과 3개월 만에 현실적인 AI 음성을 위한 알고리즘을 개발했습니다. 그곳에서 Petrochuk은 WellSaid의 미래 공동 창립자인 Matt Hocking을 만났습니다. 미 육군 퇴역 군인이자 미국 국회 의사당 경찰의 은퇴한 물리적 보안 책임자인 David DuBois가 2022년에 ALS 진단을 받았을 때 그의 가족은 그가 말하는 것을 듣지 못한 채 24개월 이상을 보냈습니다.

음성 AI 회사인 WellSaid는 40분 미만의 오래된 음성 메일과 비디오를 사용하여 DuBois의 진짜 목소리와 일치하는 맞춤형 음성을 만들 수 있었습니다. DuBois가 가장 좋아하는 문구인 "You're killin' me, Smalls를 포함하여 감정과 유머가 담긴 음성입니다. "

WellSaid는 궁극적으로 인간을 대체하기보다는 인간성을 강화하는 인공 지능에 초점을 맞추고 싶다고 말합니다. 

Mixail Petrochuk은 인공 지능의 가능성을 탐구하는 비영리 연구 센터인 Paul Allen의 Ai2 Institute에서 근무하면서 워싱턴 대학교를 졸업한 지 불과 3개월 만에 현실적인 AI 음성을 위한 알고리즘을 개발했습니다. 그곳에서 Petrochuk은 WellSaid의 미래 공동 창립자인 Matt Hocking을 만났습니다.

 

자폐증이 있는 Petrochuk은 자신의 도전을 기회로 바꾸려는 영감을 받았습니다. WellSaid는 그가 세상에 긍정적인 영향을 미치기 위해 노력한 방법 중 하나였습니다. 

"나는 다른 사람들보다 뇌에 더 많은 전선을 가지고 태어났습니다. 이는 내 뇌가 초과 근무를 하고, 생각하고, 처리하고, 느끼는 것을 의미합니다."라고 Petrochuk은 말했습니다. "나는 종종 많은 사람들이 놓치는 아이디어를 가져옵니다. 나는 작업 전반에 걸쳐 중요한 통찰력을 얻기 위해 활용하는 패턴을 발견합니다."

WellSaid는 텍스트 음성 변환 공간에서 AI 책임 이니셔티브를 열심히 추진하고 있습니다. AI의 위험에 대한 보고가 더 널리 알려졌을 때 WellSaid는 이미 수익 공유, 콘텐츠 조정 및 성우 익명성에 관한 프로그램을 구축하고 실행했습니다.

WellSaid가 2018년에 출시되었을 때 원래는 교육자가 유익한 콘텐츠를 만들 수 있도록 돕기 위해 구축되었습니다. 오늘날 WellSaid는 성우, 노인, 장애인 고객 및 시각 장애인에게 인간과 같은 음성으로 자막을 제공하는 Audible Sight와 같은 관련 조직을 포함하여 수백만 명의 사람들에게 정보를 제공하고 지원하는 데 사용됩니다.

 

WellSaid의 경쟁사 및 차별화


WellSaid 경쟁사에는 ElevenLabs 및 Murf AI가 포함되어 있지만 WellSaid는 공개 오픈 소스 데이터를 사용하지 않는 엄격하게 통제되는 교육 모델에 중점을 둡니다.

ElevenLabs와 같은 회사는 사실적인 음성을 원활하게 제공하는 방식으로 텍스트와 언어를 번역하려는 열망을 바탕으로 설립되었습니다. WellSaid와 유사한 ElevenLabs는 ALS와 같은 퇴행성 질환 환자에게 효과적입니다. Murf AI에는 음성 녹음 제출에 대해 비용을 지불하는 음성 데이터 소싱 옵션이 있습니다.

그러나 오픈 소스 데이터를 사용하면 오디오 도플갱어를 시험해 보기 위해 5달러를 지불하든, 음성 녹음에 대한 대가를 받기 위해 제출하든, 자신의 유사성에 대한 자율성을 갖는 것이 반드시 선택 사항은 아닙니다. 

결국, AI가 생성한 음성의 오용에 대해 걱정하는 것은 공정한 일입니다. OpenAI-Scarlett Johansson 사례를 기억하시나요? 아니면 연방통신위원회가 불법이라고 선언한 조 바이든 대통령을 흉내낸 AI가 만든 자동녹음전화인가요?

 

AI로 인해 무너진 신뢰 및 안전 정책에 대한 언론 보도와 소송이 늘어나면서 WellSaid의 개인 데이터 소싱은 더 현명한 결정이 아니라 필요한 결정입니다. 

WellSaid는 인터넷에서 수백만 개의 목소리를 수집하는 것이 아니라 영원히 AI라는 사명에 집중하는 것을 선호한다고 말합니다. 이 시나리오에서는 고품질 출력과 플랫폼에서 음성을 사용할 수 있는 권한이 필요합니다. 

WellSaid의 CEO인 Cook은 "우리의 목소리는 모두 배우의 목소리입니다"라고 말했습니다. "우리는 그들을 전문적인 환경에서 녹음했습니다. 우리는 그들을 조사했고 그들의 승인을 받았습니다. 우리는 그들에게 지불하고 로열티를 지불합니다. 우리는 그들에게 시간과 훈련에 대한 대가를 지불합니다. 우리는 그들에게 지속적인 로열티를 지불합니다."

 

'윤리적인' AI가 인간 경험을 어떻게 지원할 수 있는가?


AI를 활용하는 데 있어 사람들이 일상생활에서 인공지능 도구를 원하는지에 대한 의문이 남는다. YouGov가 수집한 데이터를 기반으로 9월에 발표된 CNET 설문조사에 따르면 응답자의 25%는 AI 도구가 유용하지 않다고 생각하며 AI 도구가 휴대폰에 통합되는 것을 원하지 않는다고 말했습니다.

그리고 34%는 기기에서 AI를 사용할 때 개인정보 보호에 대해 우려하는 반면, 45%는 AI 도구 구독료를 지불하지 않겠다고 답했습니다.

Cook은 인간이 AI와 상호 작용하기로 결정하는 데 편안함과 신뢰가 큰 역할을 한다고 말합니다. 그는 AI가 결국 일상생활에 스며들어 사람들이 기술과 상호작용하고 개인적인 경험을 바탕으로 결정을 내릴 수 있게 될 것이라고 믿습니다.

그렇다면 윤리적인 AI가 일상적인 인간의 집에 편안하게 존재하는 세상이 있을까요?

 

"오늘날 우리가 할 수 없는 일을 할 수 있도록 돕는 도구라고 생각하면, 질병을 예방하고 소외된 사람들에게 질병을 전파하거나 고품질의 의료 서비스를 제공하는 AI의 역할에 대해 꽤 기분이 좋습니다." 쿡이 말했다. 

"30년, 40년, 50년 후에 우리는 '이건 획기적인 일이었다'고 말할 것입니다." 이는 많은 사람들의 삶을 더 좋게 만드는 정말 큰 일입니다."

Designed by JB FACTORY