주가 하락에도 젠슨 황은 웃고 있다? 엔비디아의 '차세대 AI'에 주목해야 하는 이유 / 오그랲 / 비디오머그

주가 하락에도 젠슨 황은 웃고 있다? 엔비디아의 '차세대 AI'에 주목해야 하는 이유 / 오그랲 / 비디오머그

1. 주가 하락에도 젠슨 황은 웃고 있다? 엔비디아의 '차세대 AI'에 주목해야 하는 이유 / 오그랲 / 비디오머그

한줄요약: 주가 하락에도 젠슨 황은 웃고 있다? 엔비디아의 '차세대 AI'에 주목해야 하는 이유 / 오그랲 / 비디오머그
*타임라인을 클릭하면 이동/재생됩니다.
시간 요약
09:15 월드 모델은 2D 이미지를 3D로 변환하여 가상의 세상을 만들고, AI가 다양한 학습을 진행할 수 있도록 하는 기술임.
09:44 젠슨 황은 엔비디아의 차세대 AI 기술인 월드 모델에 주목하고 있으며, 이는 자율주행 및 다양한 AI 응용 분야에서 혁신적인 변화를 가져올 것으로 기대됨.
10:45 엔비디아는 GPU 시장에서 압도적인 점유율을 차지하고 있으며, 월드 모델을 활용한 코스모스를 통해 자율주행 자동차와 로봇 공학 분야에서의 활용 가능성을 높이고 있음.
12:44 자율주행 자동차 시장은 AI가 다양한 상황을 학습해야 하며, 월드 모델을 활용하면 가상 환경에서 안전하게 다양한 테스트를 진행할 수 있음.
13:15 엔비디아의 기술적 혁신은 향후 AI 산업의 방향성을 제시할 것으로 보임.
14:16 엔비디아는 2천만 시간 분량의 동영상을 학습 데이터로 활용하고 있으며, 이는 역대 모델들 중 가장 많은 데이터 양임.
15:14 코스모스의 학습 데이터는 자연계의 물리 법칙을 이해하는 데 중점을 두고 있으며, 이는 로봇 공학 및 자율주행에 유용함.
17:15 미국의 빅테크 기업들은 중국에 뒤처지지 않기 위해 저작권 있는 자료의 사용을 요청하고 있음.
17:44 월드 모델의 상용화는 여전히 많은 숙제를 남겨두고 있으며, 특히 학습 데이터의 저작권 문제와 에너지 문제는 해결해야 할 주요 과제임.



이 포스팅은 쿠팡 파트너스 활동의 일환으로, 이에 따른 일정액의 수수료를 제공받습니다.

2. 스크립트

[AI를 마치 메타버스 같은 가상의 환경에서 학습시킨다는 것이죠. 안녕하세요, 데이터를 만지고 다루는 아네 기자입니다. 지난주 엔비디아의 최대 연례 행사인 GTC가 있었죠. 예전이라면 사람들은 젠슨 왕의 한마디에 열광하고, 시장은 뜨겁게 반응하면서 주가가 상승곡선을 그리곤 했는데, 최근엔 그렇지 않은 것 같습니다. 이번 GTC 이후에도 엔비디아 주가는 큰 변화 없이 횡보 중이죠. 엔비디아와 AI 관련해서 기사들은 나오고 있는데, 지금과 비교해서 앞으로 뭐가 달라진다는 건지도 잘 모르겠고, 새롭게 등장하는 용어들도 많아서 헷갈리기만 합니다. 그래서 오늘 오그랩에서는 도대체 엔비디아가 꿈꾸는 미래가 무엇인지 다섯 가지 그래프를 통해 살펴보려고 합니다. 오늘은 영상 전반에 걸쳐 등장할 수많은 사람들 그리고 기업들을 한번 정리하고 시작하려고 합니다. 이야기를 곁들여서 말이죠.. 이야기의 시작은 페이리부터입니다. 지난 팔란티어 편에서 딥러닝의 데모로 불리는 페이리 이야기를 간단히 했었습니다. 페이리에게 딥러닝의 데모라는 별명이 붙게 된 이유 중 하나는 바로 이미지넷이라는 프로젝트였어요.

때는 2006년입니다. 스탠퍼드 대학교에서 컴퓨터 비전 연구실을 이끌던 페이리가 컴퓨터 비전을 더 발전시키겠다는 마음으로 천만 건이 넘는 이미지 데이터를 무료로 제공했습니다. 이 프로젝트가 바로 이미지넷이었죠. 이미지넷에서는 단순히 데이터만 제공해 주는 게 아니라, 이 이미지를 컴퓨터가 잘 분류해 내는지를 경쟁하는 대회도 운영했습니다.. 세월이 흘러 2012년 이미지넷 대회에서 세상을 놀라게 한 슈퍼비전이라는 팀이 등장합니다. 도대체 슈퍼비전이 무엇을 했길래 세상이 떠들썩했는지 오그랩 첫 번째 그래프를 통해 살펴보겠습니다. 2010년부터 2012년까지 이미지넷 대회에 참여한 팀들의 오답률입니다. 시간이 지나면 지날수록 오답률이 낮아지는 걸 알 수 있어요. 2012년 결과를 봐볼게요. 보통 다른 팀들은 분류를 잘해 내더라도 프로그램 오답률이 20%에서 30%였습니다. 그런데 슈퍼비전은 단 15.3%의 오답률을 기록합니다. 너무나 급격한 성능 발전에 많은 사람들이 놀란 거죠.

이 팀을 이끈 사람은 바로 AI의 대부 제프리 힌턴이었습니다. 제프리 힌턴은 본인 연구실 소속의 알렉스 크리제브스키, 일리아 수트케버와 함께 팀을 이루었는데, 이들은 다른 팀들과 달리 딥러닝이라는 방식을 사용했습니다. 그리고 딥러닝을 프로그래밍하는 데에는 엔비디아의 GPU와 쿠다가 사용됐죠. CPU와 비교해서 GPU는 수많은 연산을 병렬로 수행하는 데 매우 탁월한 성능을 보여줬습니다. 그것을 슈퍼비전 팀이 대회에서 증명해 낸 거죠. 이들이 만든 알렉스넷이 압도적인 실력으로 우승을 하자 딥러닝은 컴퓨터 비전과 AI 영역에서 주류로 떠오르게 됩니다. 뿐만 아니라 엔비디아의 GPU와 쿠다 생태계가 날개를 펴기 시작했죠.. 이 세 사람은 이후 AI 스타트업인 DN 리서치를 만듭니다. 그리고 이 스타트업을 발빠르게 구글이 인수해 버리죠. 구글이 당시 AI에서 가장 핫한 연구진을 가져가 버리자, 뒤쳐질 수 없었던 페이스북도 부랴부랴 움직였습니다. 페이스북의 AI를 책임지고 연구할 연구소 페어를 세우고, 또 다른 AI 석학인 얀 르쿤을 소장으로 앉혔습니다. 페이스북은 얀 르쿤을 모셔오기 위해 그가 거주하고 있는 뉴욕시에 연구소를 만들어 줄 정도로 지극 정성이었어요.

참고로 얀 르쿤은 과거 1987년부터 88년까지 제프리 힌턴 연구실에서 연구한 제자이기도 합니다. 구글의 제프리 힌턴, 페이스북의 얀 르쿤, 그리고 벤지오까지 이들은 딥러닝 연구에서 때로는 선의의 경쟁을, 또 때로는 협업하면서 AI 연구를 진행합니다. 유슈아 벤지오와 얀 르쿤은 90년대 AT&T 벨 연구소에서 함께 공부한 인연이 있는데요. 참고로 이재용 삼성전자 회장이 유슈아 벤지오에게 종종 자문을 구한다고 하죠. 삼성전자는 2017년에 유슈아 벤지오가 있는 캐나다 몬트리올 AI 연구소를 설립하기도 했습니다. 그리고 이 세 사람은 2018년 딥러닝 연구에 기여한 업적으로 컴퓨터 과학계의 노벨상인 튜링상을 공동 수상하게 됩니다.. 이렇게 좋은 일만 있으면 참으로 좋겠지만, AI 기술이 점점 발전해 오면서 이들 사이에서도 점점 입장 차이가 생기기 시작합니다. 일단 제프리 힌턴은 2023년 구글을 퇴사하면서 수십 년의 AI 연구를 후회한다고 밝혔어요. 최근에 AI 기술 발전이 너무 빠르다면서 이 속도라면 근 미래에 AI가 인간의 통제권을 빼앗을 것이라고 경고했죠. 유슈아 벤지오와 일리아 수트케버 역시 AI의 위험성에 공감하는 입장입니다. 반면 얀 르쿤과 페이리의 입장은 다릅니다. AI를 잘만 활용한다면 충분히 인간을 이롭게 할 수 있다는 것이죠.

특히 얀 르쿤은 현재 가장 뛰어난 LLM도 고양이만 못하다고 비판하기도 했어요. 얀 르쿤은 동물보다도 못한 AI에 대해서 우리는 우려할 필요가 없으며, 규제보다는 기술 개발이 필요하다고 목소리를 높이고 있습니다. 오늘 다뤄볼 주제는 앞으로 새롭게 등장할 AI의 모습과 엔비디아, 그리고 젠슨 왕의 큰 그림을 이해하는 것입니다.]. 페이리의 입장을 조금 더 살펴봐야 합니다. 얀루크는 왜 지금의 AI에 대한 우려가 과장되었다고 생각할까요? 그건 바로 지금의 모델이 라지 랭귀지 모델, 즉 언어 모델이기 때문입니다. 얀루크는 LLM으로는 인간 수준의 AI 구현이 어렵다고 단언하고 있어요. 왜냐하면 인간과 동물은 현실 세계와 끊임없이 상호작용을 하는데, 그 과정에서 얻는 지식 대부분이 비언어적이라는 거죠. 하지만 LLM은 언어를 대량으로 학습합니다. 언어를 학습한 LLM은 끽해 봐야 인간의 지능 일부를 흉내내는 것일 뿐, 이렇게 해서는 AGI에 도달하지 못한다고 주장하는 거죠. 그러다 보니 얀루크는 지금 우리 사회가 갖고 있는 AI에 대한 우려도 기후에 그칠 거라고 생각합니다.. 일단 얀루크가 트위터에 올렸던 내용을 가지고 한번 비교해 보겠습니다. 두 번째 그래프는 텍스트 데이터의 한 개입니다.

현재 인터넷에서 공개적으로 이용할 수 있는 고품질의 텍스트는 약 10조 개의 토큰 정도로 알려져 있어요. 여기서 말하는 토큰은 언어 모델이 텍스트를 이해하고 생성해내는 기본 단위를 의미합니다. 토큰 하나당 2바이트로 계산하면 LLM이 처리할 수 있는 텍스트 데이터량은 20조 바이트가 나옵니다.. 이번엔 네 살짜리 꼬마 어린이가 처리하는 시각 정보량을 계산해 보겠습니다. 네 살 꼬마의 인생 전체에서 깨어 있는 시간은 16,000시간 정도입니다. 그리고 우리 눈에는 각각 100만 개의 시신경 섬유가 존재하죠. 이 섬유는 초당 약 10바이트의 데이터를 뇌로 전송하는데요, 계산해 보면 네 살 꼬마가 처리해 온 시각 정보량은 152조 바이트로, LLM의 텍스트 데이터에 비해 50배 차이가 납니다. 이렇게 정보량 차이가 나니까 텍스트 데이터 기반의 LLM으로는 절대 인간 수준의 AI가 될 수 없다는 게 얀루크의 입장입니다.. 그래서 얀루크는 언어를 넘어서 AI 시스템이 세상의 작동 방식을 배울 필요가 있다고 주장해요. 어떻게? 바로 월드 모델로 말이죠. 2018년 구글에서 월드 모델이라는 이름의 논문이 발표됩니다. 이 논문에서는 우리 인간이 세상을 인지하듯이 AI를 학습시켜 보자고 제안합니다.

한번 생각해 볼까요? 단 한 번 더 해보자 하는 자동차 게임을 해본다고 할게요. 처음엔 조작 방법을 모르니까 이것도 눌러보고 저것도 눌러보고 할 겁니다. 방향 키를 조작하면 자동차가 움직이고, A 버튼을 누르면 가속이 되고, B 버튼을 누르면 브레이크가 되고, 이런 과정을 거치면서 우리 뇌는 내가 어떤 행동을 하면 게임 속 환경에 어떤 변화가 생기는지 인지하고 이해하게 됩니다. 그리고 이런 경험이 모이면 자동차 게임에 대한 추상적 모델이 우리 뇌 속에 만들어지겠죠. 이 방식을 AI에 적용한 게 바로 월드 모델입니다. AI를 실제 세계에서 학습하지 않더라도 뇌 속의 추상 모델, 마치 메타버스 같은 가상의 환경에서 학습시킨다는 거죠.. 구글 연구진은 이 모델로 실험을 돌려봤고, 그 결과는 압도적으로 월드 모델이 높은 점수를 받았습니다. 이 월드 모델의 등장은 많은 사람들에게 깊은 영감을 주었어요. 그리고 2024년, 여기서 페이리가 다시 등장합니다. 페이리는 지난해 월드랩스라는 스타트업을 설립했는데, 아직까지 가시적인 성과를 하나도 내놓지 못했음에도 불구하고 무려 2억 3천만 달러, 우리나라 돈으로 3,300억 원이 넘는 투자금이 모였습니다. 페이리가 월드랩스에서 하겠다는 것, 바로 월드 모델입니다..

현재 월드랩스 홈페이지에 들어가 보면 월드랩스에서 내놓은 서비스는 2D 이미지를 3D 이미지로 바꿔 주는 기능뿐인데요. 이게 뭐 대단한 기술인가 싶지만, 한번 생각해 보겠습니다. 단 한 장의 이미지만으로 가상의 3D 세상을 만들고, 이렇게 만들어진 3D 세상에 기본적인 물리 규칙이 적용된다면 어떻게 될까요? 이 공간에서 AI는 다양한 학습을 진행하고, AR이나 VR, 그리고 자율주행 로봇에도 이 기술을 활용할 수 있게 되는 겁니다. 언어 그 이상의 학습이 필요하다고 주장했던 얀루크도 월드 모델을 꾸준히 발전시키고 있습니다. 메타에서 공개한 모델 제파가 대표적이죠. 뿐만 아니라 구글과 오픈AI도 마치 시뮬레이션 게임을 닮은 월드 모델을 지난해부터 공개하고 있습니다.. 이런 흐름을 흐뭇하게 지켜보는 이가 있으니, 바로 젠슨 황입니다. LLM 시대의 최대 수혜자를 뽑는다면 거의 모든 사람이 엔비디아를 이야기할 겁니다. 기업들은 더 좋은 성능의 모델을 만들어내기 위해 지금도 수많은 데이터들을 학습시키고 있고, 거기엔 엔비디아의 GPU가 사용되고 있습니다.

세 번째 그래프에서는 주요 모델들의 학습 데이터 규모를 나타내 보았습니다. 에포크 AI에서는 전 세계에서 출시된 주요 AI 모델들의 학습 데이터를 DB에 쌓아 공개하고 있어요. 그래프를 그려보면 이렇습니다. 성능을 높이기 위해 모델에 들어가는 데이터 양이 기하급수적으로 늘고 있죠. 월드 모델에서는 어떻게 될까요? 월드 모델에서는 이미지와 영상으로 학습을 하기 때문에 기존 모델보다 더 많은 GPU가 필요할 겁니다. 물론 단순히 GPU만으로 엔비디아가 만족하진 않을 겁니다..

2.1. 월드 모델은 2D 이미지를 3D로 변환하여 가상의 세상을 만들고, AI가 다양한 학습을 진행할 수 있도록 하는 기술임.

월드 모델은 2D 이미지를 3D로 변환하여 가상의 세상을 만들고, AI가 다양한 학습을 진행할 수 있도록 하는 기술임.
Fig.1 - 월드 모델은 2D 이미지를 3D로 변환하여 가상의 세상을 만들고, AI가 다양한 학습을 진행할 수 있도록 하는 기술임.

젠슨 왕은 월드 모델을 활용할 수 있는 프로그램 코스모스를 지난 CES에서 공개한 바 있습니다. 엔비디아의 월드 모델 플랫폼 코스모스는 아주 손쉽게 월드 모델을 만들어 줍니다. 문장을 넣거나 이미지를 넣어서 가상의 월드를 만들 수 있어요.

2.2. 젠슨 황은 엔비디아의 차세대 AI 기술인 월드 모델에 주목하고 있으며, 이는 자율주행 및 다양한 AI 응용 분야에서 혁신적인 변화를 가져올 것으로 기대됨.

젠슨 황은 엔비디아의 차세대 AI 기술인 월드 모델에 주목하고 있으며, 이는 자율주행 및 다양한 AI 응용 분야에서 혁신적인 변화를 가져올 것으로 기대됨.
Fig.2 - 젠슨 황은 엔비디아의 차세대 AI 기술인 월드 모델에 주목하고 있으며, 이는 자율주행 및 다양한 AI 응용 분야에서 혁신적인 변화를 가져올 것으로 기대됨.

이렇게 말이죠. 이렇게 만들어진 가상의 월드는 물리 법칙이 적용되어 있고, 이 안에서 다양한 시뮬레이션을 돌려볼 수 있게 됩니다. 사실 다른 기업들은 이제 막 월드 모델에 눈길을 주고, 한번 해볼까 하는 상황인데요. 엔비디아는 월드 모델을 만들 수 있는 코스모스를 매우 빠르게 발표했어요. 왜 그랬을까요? 바로 쿠다의 경험 때문입니다. 2012년 재프린턴의 슈퍼비전 팀이 일으켰던 불꽃이 엔비디아의 GPU 판매량에 날개를 달아주었던 이유, 바로 쿠다였습니다. 사실 GPU를 만드는 건 엔비디아뿐만이 아니거든요. AMD도 있어요. 하지만 딥러닝 연구 생태계에서 쿠다 소프트웨어는 이미 자리를 잡힌 상태였던 거죠.

2.3. 엔비디아는 GPU 시장에서 압도적인 점유율을 차지하고 있으며, 월드 모델을 활용한 코스모스를 통해 자율주행 자동차와 로봇 공학 분야에서의 활용 가능성을 높이고 있음.

엔비디아는 GPU 시장에서 압도적인 점유율을 차지하고 있으며, 월드 모델을 활용한 코스모스를 통해 자율주행 자동차와 로봇 공학 분야에서의 활용 가능성을 높이고 있음.
Fig.3 - 엔비디아는 GPU 시장에서 압도적인 점유율을 차지하고 있으며, 월드 모델을 활용한 코스모스를 통해 자율주행 자동차와 로봇 공학 분야에서의 활용 가능성을 높이고 있음.

이 생태계 위에서 많은 연구진들은 딥러닝에 뛰어들었고, 그러려면 엔비디아의 GPU를 사야 했던 겁니다. 이렇게 미리 선점한 생태계의 결과는 이렇게 나타납니다. 오그랩 네 번째 그래프는 데이터 센터 GPU 점유율입니다. 데이터 센터 GPU 시장은 2024년 기준 1,250억 달러로 성장했는데, 그중 엔비디아가 무려 92%를 차지하고 있습니다. AMD는 4%, 하이가는 2%, 인텔은 1%, 나머지가 1%에 불과하죠. 쿠다에서 생태계의 선점 효과를 이미 맛본 엔비디아가 차세대 모델인 월드 모델에서도 비슷한 전략을 취하는 겁니다. 우리가 잘 만들어 놓은 코스모스에서 연구하세요. 여기서 월드 모델 만들어서 사업하세요라고 세일즈를 하는 거죠. 그렇다면 코스모스가 지금 당장 필요한 산업군은 어디일까요? 바로 자율주행을 성공시키고 싶은 자동차 시장입니다. 자율주행을 위해서는 AI가 다양한 상황에 대응할 수 있도록 많은 시도와 상황을 학습해야 합니다. 하지만 실제 도로에서 테스트를 하는 건 매우 위험할 수 있어요. 게다가 그 공간을 확보하고 활용하기 위해서는 많은 돈과 시간이 들 겁니다.

과거 자료긴 하지만 자율주행 차량의 안전성을 입증하기 위해서는 최대 500년이 걸린다는 연구 결과도 있을 정도죠. 하지만 월드 모델과 함께라면 어떨까요? 가상으로 만들어진 월드에서 다양한 상황을 시뮬레이션해 볼 수 있겠죠. 그 수많은 테스트를 AI가 학습한다면 안전한 자율주행 자동차를 만드는 데 드는 시간을 엄청나게 단축시킬 겁니다.

2.4. 자율주행 자동차 시장은 AI가 다양한 상황을 학습해야 하며, 월드 모델을 활용하면 가상 환경에서 안전하게 다양한 테스트를 진행할 수 있음.

자율주행 자동차 시장은 AI가 다양한 상황을 학습해야 하며, 월드 모델을 활용하면 가상 환경에서 안전하게 다양한 테스트를 진행할 수 있음.
Fig.4 - 자율주행 자동차 시장은 AI가 다양한 상황을 학습해야 하며, 월드 모델을 활용하면 가상 환경에서 안전하게 다양한 테스트를 진행할 수 있음.

당장 지난주에 있었던 엔비디아 GTC 컨퍼런스에서도 AI 자동차 관련 내용들이 쏟아졌습니다. 엔비디아의 전성기를 만든 알렉스넷에 대한 리스펙도 날려줬고요. 이번 발표에서 엔비디아는 거의 모든 자율주행 자동차 회사가 사용할 기술을 개발하고 있다고 선언했습니다. 그리고 GM과의 협력을 강화하겠다고도 발표했죠. 월드 모델 코스모스를 활용해서 자율주행뿐 아니라 GM의 공장을 자동화하고, 공장에서 사용될 로봇 개발에도 협력을 약속했습니다. 문장과 이미지만 넣고 딸깍 누르면 뚝딱 가상 세계를 만들어내는 코스모스.

2.5. 엔비디아의 기술적 혁신은 향후 AI 산업의 방향성을 제시할 것으로 보임.

엔비디아의 기술적 혁신은 향후 AI 산업의 방향성을 제시할 것으로 보임.
Fig.5 - 엔비디아의 기술적 혁신은 향후 AI 산업의 방향성을 제시할 것으로 보임.

이 모델은 기존의 텍스트 생성과 이미지 생성보다 훨씬 더 고차원적인 일을 해내는 만큼 정말 엄청난 양의 데이터가 학습되었을 겁니다. 엔비디아는 총 2천만 시간 분량의 동영상을 원시 데이터로 활용했다고 밝혔는데요. 여기서 말하는 2천만 시간이란 말이 2천만 시간이지, 정확히 감이 오지 않을 수 있습니다. 그래서 계산을 해봤습니다. 2천만 시간을 연으로 바꿔 보면 2,283.1년이 나옵니다. 그러니까 마케도니아 왕국과 이집트의 프톨레마이오스 2세가 싸우던 기원전 258년부터 지금까지의 시간인 거죠.

2.6. 엔비디아는 2천만 시간 분량의 동영상을 학습 데이터로 활용하고 있으며, 이는 역대 모델들 중 가장 많은 데이터 양임.

엔비디아는 2천만 시간 분량의 동영상을 학습 데이터로 활용하고 있으며, 이는 역대 모델들 중 가장 많은 데이터 양임.
Fig.6 - 엔비디아는 2천만 시간 분량의 동영상을 학습 데이터로 활용하고 있으며, 이는 역대 모델들 중 가장 많은 데이터 양임.

물론 2천만 시간의 데이터 가운데 중복된 자료는 빼고, 또 쓸모 없는 영상들은 빼더라도 역대 어느 모델들보다 데이터 양이 많은 겁니다. 그렇다면 2천만 시간 영상 데이터는 도대체 어떤 것들일까요? 오그랩 마지막 그래프는 코스모스에 사용된 영상 데이터를 가지고 그려봤습니다. 학습 데이터 셋을 분류해 보면 가장 많은 영역을 차지하는 건 자연 안에서 볼 수 있는 역학, 네이처 다이나믹스였습니다. 이럴 테면 바람의 흐름이라든지, 낙엽이 떨어지는 모습, 또 물체 간의 충돌과 강물의 흐름 같이 자연계에서 발생하는 다양한 상호작용이 전체 학습 영상의 20%를 차지했어요. AI가 우리 실생활에서 확인할 수 있는 물리 법칙을 깨우칠 수 있도록 가장 많은 영상이 투입된 거겠죠. 뒤이어 공간을 인식하고 탐색할 수 있는 영역, 그리고 손동작 물체 조작이 각각 16%를 기록했습니다. 이러한 영상들은 로봇 공학에 유용하게 쓰일 거고요. 그다음으로 운전 영상이 11%로 4위를 차지했습니다. 이 영상들은 당연히 자율주행에 활용되겠죠.

2.7. 코스모스의 학습 데이터는 자연계의 물리 법칙을 이해하는 데 중점을 두고 있으며, 이는 로봇 공학 및 자율주행에 유용함.

코스모스의 학습 데이터는 자연계의 물리 법칙을 이해하는 데 중점을 두고 있으며, 이는 로봇 공학 및 자율주행에 유용함.
Fig.7 - 코스모스의 학습 데이터는 자연계의 물리 법칙을 이해하는 데 중점을 두고 있으며, 이는 로봇 공학 및 자율주행에 유용함.

그런데 엔비디아는 이 카테고리 안에 어떤 영상을 사용한 건지는 공개를 일절 안 하고 있어요. 문제는 코스모스 학습 데이터 안에 저작권을 침해한 영상이 다수 포함되어 있다는 의혹이 있다는 겁니다. 기술과 인터넷 전문 언론사인 404 미디어의 단독 보도에 따르면 엔비디아는 유튜브와 넷플릭스 영상을 무단으로 크롤링해.... 서 코스모스를 학습시켰습니다. 월드 모델을 학습시키기 위해서는 엄청난 양의 데이터가 필요한데, 데이터를 찾기 어려우니 남의 것을 탐한 겁니다. 당연히 넷플릭스는 크롤링을 금지하고 있고, 유튜브 역시 마찬가지입니다. 지난해 여름에 이 보도가 나왔는데, 직후에 바로 엔비디아는 유튜브 콘텐츠 제작자들의 소유권을 침해했다는 이유로 집단 소송까지 걸렸습니다. 월드 모델을 공개한 다른 기업들도 상황이 비슷합니다. 오픈AI의 소라도 어떠한 데이터셋으로 학습을 시켰는지에 대해 명확히 대답하지 못하고 있죠. 이렇게 빅테크들은 학습 데이터의 저작권 논란에서 자유롭지 못한 상황이지만, 놀랍게도 더 많은 것을 원하고 있습니다.. 트럼프가 지난 1월에 서명한 행정 명령 14179입니다. 제목을 읽어보면 'Removings to American Leadership in AI'입니다.

AI 시장에서 미국의 리더십을 세우는 데 걸림돌이 있다면 없애 버리겠다는 겁니다. 이 행정 명령이 떨어지고 난 뒤 AI 학계나 기업 기관들은 각자의 액션 플랜을 제출해야 했는데요, 미국 빅테크들은 무엇을 요구했을까요? 바로 저작권법이 걸림돌이 된다고 말했습니다. 자신들이 소유하지 않은 자료도 무제한으로 사용해 달라고 요청한 거죠.

2.8. 미국의 빅테크 기업들은 중국에 뒤처지지 않기 위해 저작권 있는 자료의 사용을 요청하고 있음.

미국의 빅테크 기업들은 중국에 뒤처지지 않기 위해 저작권 있는 자료의 사용을 요청하고 있음.
Fig.8 - 미국의 빅테크 기업들은 중국에 뒤처지지 않기 위해 저작권 있는 자료의 사용을 요청하고 있음.

왜냐하면 미국의 AI에서 글로벌 1등의 자리를 지키기 위해서, 다시 말하면 중국에게 1등 자리를 빼앗기지 않기 위해서 말이죠.. 빅테크들은 이야기합니다. '딥시크 쇼크 봤죠? 우리가 중국에게 뒤쳐지지 않으려면 국가 안보 차원에서라도 저작권 있는 자료들을 풀어 줘야 합니다.' 여러분은 어떻게 생각하시나요? 월드 모델이 앞으로 풀어야 할 숙제는 여전히 많이 있습니다. 학습 데이터의 저작권 이슈뿐 아니라, 이렇게나 많은 데이터를 처리하는 데 들어갈 에너지 문제도 있죠. 그나마 다행인 건 월드 모델이 상용화되기까지는 아직 시간이 많이 남았다는 겁니다. 전문가들은 한 5년 이상을 보고 있더라고요.

2.9. 월드 모델의 상용화는 여전히 많은 숙제를 남겨두고 있으며, 특히 학습 데이터의 저작권 문제와 에너지 문제는 해결해야 할 주요 과제임.

월드 모델의 상용화는 여전히 많은 숙제를 남겨두고 있으며, 특히 학습 데이터의 저작권 문제와 에너지 문제는 해결해야 할 주요 과제임.
Fig.9 - 월드 모델의 상용화는 여전히 많은 숙제를 남겨두고 있으며, 특히 학습 데이터의 저작권 문제와 에너지 문제는 해결해야 할 주요 과제임.

5년은 짧지 않은 시간입니다. 그 사이 제도와 시스템을 갖춘다면 풀지 못한 숙제도 해결할 수 있고, 발생할 문제도 충분히 대비할 수 있지 않을까요? 오늘 준비한 엔비디아와 월드 모델 이야기는 여기까지입니다. 끝까지 시청해 주셔서 진심으로 감사합니다..


3. 영상정보


이 포스팅은 쿠팡 파트너스 활동의 일환으로, 이에 따른 일정액의 수수료를 제공받습니다.

댓글 쓰기

다음 이전