OpenAI의 새로운 반직업 프로그램
- AI 정보
- 2025. 2. 14. 12:11
화요일에 나는 트럼프 행정부의 AI에 대한 바이든 행정명령 폐지가 미치는 영향에 대한 이야기를 쓸까 생각하고 있었습니다. (가장 큰 의미는 연구소가 더 이상 위험한 기능을 정부에 보고하도록 요청받지 않는다는 것입니다. 어쨌든 그렇게 할 수도 있습니다.) 그러나 더 크고 더 중요한 두 가지 AI 이야기가 떨어졌습니다. 그 중 하나는 기술적인 것이고 다른 하나는 경제적인 것입니다.
사람들은 즉시 질문을 했습니다. 첫째, 엘론 머스크가 “그들은 실제로 돈이 없다”고 공개적으로 선언했고, 이어서 마이크로소프트 CEO 사티아 나델라가 “내 800억 달러는 괜찮다”고 답했다. (Microsoft는 OpenAI에 큰 지분을 갖고 있음을 기억하십시오.)
둘째, 일부 사람들은 이 프로그램이 “수십만 개의 미국 일자리를 창출할 것”이라는 OpenAI의 주장에 이의를 제기했습니다.
왜? 글쎄, 투자자가 이 프로젝트에서 돈을 돌려받을 수 있는 유일한 방법은 회사가 베팅한 대로 OpenAI가 곧 인간이 컴퓨터에서 할 수 있는 대부분의 작업을 수행할 수 있는 AI 시스템을 개발하는 것입니다. 경제학자들은 수십만 개의 일자리 창출이 적어도 장기적으로는 하나처럼 보이지는 않지만, 그것이 발생한다면 정확히 어떤 경제적 영향을 미칠지 치열하게 토론하고 있습니다. (공개: Vox Media는 OpenAI와 파트너십 계약을 체결한 여러 출판사 중 하나입니다. 우리의 보고는 편집상 독립적입니다.)
대량 자동화는 산업 혁명이 시작되기 전부터 일어났으며, 일부 사람들은 그것이 장기적으로 사회에 좋은 일이 될 것이라고 진심으로 기대합니다. (내 생각: 그것은 실제로 민주적 책임과 적절한 감독을 유지하고 놀라운 새로운 공상 과학 세계의 이점을 공유할 계획이 있는지 여부에 달려 있습니다. 지금 당장은 그런 것이 전혀 없기 때문에 자동화에 대한 전망을 응원하지 않습니다.)
하지만 당신이 나보다 자동화에 더 열광한다 하더라도, OpenAI의 비즈니스 모델로 널리 이해되는 “우리는 모든 사무를 AI로 대체할 것입니다”는 일자리 프로그램으로 활용하려는 터무니없는 계획입니다. 그러나 수많은 일자리를 없애기 위해 5000억 달러를 투자해도 스타게이트처럼 도널드 트럼프 대통령의 승인을 얻지 못할 것입니다.
DeepSeek은 AI 피드백에 대한 강화를 알아냈을 수도 있습니다.
이번 주의 또 다른 큰 이야기는 중국 AI 스타트업 DeepSeek의 새로운 릴리스인 DeepSeek r1이었습니다. 이 회사는 OpenAI의 o1에 대한 경쟁자로 광고했습니다. r1을 큰 문제로 만드는 것은 경제적 영향보다는 기술적 영향이 더 큽니다.
AI 시스템이 좋은 답변을 제공하도록 가르치기 위해 우리는 AI 시스템이 제공하는 답변을 평가하고 높은 평가를 받은 답변에 집중하도록 교육합니다. 이는 "인간 피드백을 통한 강화 학습"(RLHF)이며 OpenAI 팀이 이를 작동시킨 이후 현대 LLM을 교육하는 주요 접근 방식이었습니다. (이 프로세스는 이 2019년 문서에 설명되어 있습니다.)
하지만 RLHF는 우리가 초인적인 AI 게임 프로그램인 AlphaZero를 얻은 방식이 아닙니다. 이는 셀프 플레이를 기반으로 한 다른 전략을 사용하여 훈련되었습니다. AI는 스스로 새로운 퍼즐을 만들고, 해결하고, 솔루션에서 배우고, 거기서부터 개선할 수 있었습니다.
이 전략은 비용이 많이 들고 느리게 수행할 수 있는 모든 작업을 빠르게 수행하는 방법을 모델에 가르치는 데 특히 유용합니다. AlphaZero는 다양한 정책을 천천히 그리고 시간 집약적으로 고려하고 어느 것이 가장 좋은지 파악한 다음 최상의 솔루션에서 배울 수 있습니다. AlphaZero가 이전 게임 엔진을 크게 향상시킬 수 있었던 것은 이러한 종류의 셀프 플레이 덕분입니다.
물론, 연구실에서는 대규모 언어 모델에 대해 유사한 것을 알아내려고 노력해 왔습니다. 기본 아이디어는 간단합니다. 모델이 오랫동안 질문을 고려하게 하여 잠재적으로 비용이 많이 드는 계산을 많이 사용하게 됩니다. 그런 다음 최종적으로 찾은 답에 대해 훈련하여 더 저렴하게 동일한 결과를 얻을 수 있는 모델을 생성하려고 합니다.
그러나 지금까지 "주요 연구실에서는 이런 종류의 자체 개선 RL로 큰 성공을 거두지 못한 것 같습니다"라고 기계 학습 엔지니어인 Peter Schmidt-Nielsen은 DeepSeek r1의 기술적 중요성에 대해 설명했습니다. 엔지니어들이 r1에 깊은 인상을 받았고 경악한 점은 팀이 해당 기술을 사용하여 상당한 진전을 이룬 것 같다는 것입니다.
이는 AI 시스템이 느리고 비용이 많이 드는 방법을 알고 있는 모든 작업을 빠르고 저렴하게 수행하도록 학습할 수 있음을 의미합니다. 이는 전 세계가 AlphaZero를 통해 목격한 빠르고 충격적인 기능 향상 중 일부를 경제 영역에서만 게임 플레이보다 훨씬 더 중요하게 만들 수 있다는 것을 의미합니다.
여기서 주목할만한 또 다른 사실은 이러한 발전이 중국 AI 회사에서 나왔다는 것입니다. 미국 AI 기업들이 자신들의 이익을 추구하기 위해 중국 AI 지배력의 위협을 이용하는 것을 주저하지 않고, 실제로 이 기술을 둘러싼 지정학적 경쟁이 있다는 점을 고려하면, 이는 중국이 얼마나 빨리 따라잡을 수 있는지에 대해 많은 것을 말해줍니다.
아직 1월인데
내가 아는 많은 사람들은 AI에 대해 듣는 것에 질려 있습니다. 그들은 인간보다 나쁘지만 값싼 AI 제품과 뉴스피드의 AI 슬롭에 지쳤으며, 전체 산업을 자동화하여 세계 최초의 조만장자가 되는 OpenAI(또는 다른 누구)를 정확히 응원하지도 않습니다.
그러나 저는 2025년에 AI가 정말 중요해질 것이라고 생각합니다. 현재로서는 잘 진행되고 있는 것처럼 보이는 이러한 강력한 시스템이 개발되었는지 여부 때문이 아니라 사회가 일어서서 책임감 있게 수행되도록 주장할 준비가 되었는지 여부 때문입니다.
AI 시스템이 독립적으로 행동하고 심각한 범죄를 저지르기 시작하면(모든 주요 연구소는 현재 독립적으로 행동할 수 있는 "에이전트"를 연구하고 있습니다), 우리는 그 제작자에게 책임을 물을 것입니까? OpenAI가 완전한 영리 지위로 전환하는 과정에서 비영리 단체에 터무니없을 정도로 낮은 제안을 한다면 정부가 비영리법 시행에 개입할까요?
이러한 결정 중 많은 부분이 2025년에 내려질 예정이며 그 위험성은 매우 높습니다. AI가 당신을 불안하게 만든다면, 그것은 외면해야 할 이유라기보다는 조치를 요구해야 할 더 많은 이유입니다.
이 이야기의 버전은 원래 Future Perfect 뉴스레터에 게재되었습니다. 여기에서 가입하세요!
'AI 정보' 카테고리의 다른 글
AI는 인간 치료사를 사칭하고 있다. 멈출 수 있나요? (0) | 2025.02.14 |
---|---|
AI는 당신을 위해 구글을 원한다 (0) | 2025.02.14 |
Nvidia, AI 칩 동료들이 DeepSeek에 미치는 영향에 대해 전락 (0) | 2025.01.28 |
레노버, AI를 활용해 중소기업 성장 촉진하는 Evolve Small 4년차 출시 (0) | 2025.01.28 |
더욱 스마트하고 개인화된 비서를 향한 구축 (0) | 2025.01.28 |