OpenAI 소라(Sora)와 시뮬레이션 세계 & 확률적 앵무새

 



OpenAI 소라(Sora)가 만든 영상을 보면 아마도 곧 ChatGPT처럼 대중적인 제품이 될 것. 물론 소라 동영상 생성에 얼마나 많은 시간이 필요할지 그리고 오픈AI가 어느 수준의 비용을 요구할지는 아직 알 수 없지만. 

시뮬레이션 세계

- 소라(SORA)는 지금까지의 동영상 생성 AI와 다릅니다. 소라가 하는 일은 특정 장면에 대한 공간 모델링에 가까움. 소라는 3D로 생각하고 2D로 시각화. OpenAI는 이를 "새로운 시뮬레이션 기능(Emerging simulation capabilities)"이라고 부른다고. 소라는 중력이 사람, 동물, 액체 등 다양한 물체에 미치는 영향도 지금까지의 다른 어떤 생성 AI보다 훨씬 더 잘 시뮬레이션함. 

- 하지만 소라는 여전히 많은 오류. 거의 모든 데모 영상에서 작은 결함과 환각이 나타날 것. 생성 AI 모델이 아무리 훌륭해지더라도 틀릴 수 있다는 가정은 계속 유효할 것임. 하지만 이러한 오류 가능성을 늘 가정하고 생성 AI 결과물을 수정하는 것은 우리 인간의 몫. 모든 사소한 결정을 내리기 전에 우리는 머릿속으로 이러한 결정의 결과를 간단히 시뮬레이션. 다시 말해 우리 모두는 매일 매일 우리 주변의 세상을 시뮬레이션하는 것. 세상을 바꾸기 위해 합성 시뮬레이션이 완벽할 필요는 없고, 충분히 훌륭한 정도면 되는 것. 


앵무새가 이제 말을 할 수 있습니다

- 지난 2년간 가장 중요한 AI 유행어 중 하나는 '확률적 앵무새'. 언어학자이자 인공지능 회의론자인 에밀리 벤더(Emily Bender)는 2023년 초 생성 AI에 대해 날카로운 비판. 벤더의 입장을 소개한 글의 제목은 “인간은 앵무새가 아니다(You Are Not a Parrot)”. 벤더는 생성 AI의 특징을 두 가지로 요약.

  1. 확률만 계산한다.
  2. 자신만의 결론을 도출하지 않고 다른 곳에서 들은 것을 앵무새처럼 따라한다.

- 벤더가 주장하듯 앵무새가 완전히 틀린 상징 또는 일반화는 아님. 2022년 AI 석학 얀 르쿤(Yann LeCun)은 텍스트로 훈련된 AI는 휴대폰을 테이블 위에 올려놓았다가 테이블을 옮기면 휴대폰이 어떻게 될지 결코 알 수 없다고 말했음. 이는 앵무새 상징과 일치. 인간은 누구나 테이블 위에 놓인 휴대폰이 테이블을 이동시키면 함께 움직인다는 것을 알고 있음. 생성 AI는 이 정확한 휴대폰과 테이블 사례가 훈련 데이터 어딘가에 설명되어 있지 않는 한 이를 이해할 수 없음.

- 그러나 GPT-4.0과 아래와 같은 대화를 나누었습니다.

- 2022년 얀 르쿤이 지적한 문제를 GPT-4.0은 위의 예처럼 해결하고 있는데 AI를 계속해서 앵무새라고 할 수 있을까? 생성 AI 나아가 소라의 작동원리를 알지 못하지만 생성 AI와 소라는 앵무새 이상. 그리고 생성 AI는 아직 개발 초기 단계이고, 샘 올트먼은 현재 생성 AI의 수준을 ‘흑백 TV’와 유사하다고. 우리는 가까운 미래에 컬러 TV 수준의 AI를 만나게 될 것.

댓글

이 블로그의 인기 게시물

평균의 시대(The age of average)

NYT(뉴욕타임스)가 오픈AI와 마이크로소프트(MS)에 소송하다!!

AI 저작권 협상에 대하여(OpenAI, 악셀 스프링어, 네이버, 신문협회)