Nvidia의 최신 AI 렌더링은 인상적입니다. “수십”개의 2D 스냅샷을 3D 렌더링 장면으로 빠르게 변환하는 도구입니다. 아래 영상에서는 앤디 워홀로 분장한 모델이 구식 폴라로이드 카메라를 들고 있는 모습을 실제로 볼 수 있습니다. (워홀의 관계를 과도하게 생각하지 마십시오. 그는 PR 분야의 작은 부분일 뿐입니다.)
이 도구는 Instant NeRF라고 하며 “신경 방사선장– UC Berkeley, Google Research, UCSD의 연구원들이 2020년에 개발한 기술입니다. 신경방사선 분야에 대한 자세한 설명을 원하시면 읽어보세요. 여기, 그러나 간단히 말해서 이 방법은 다른 2D 샷에 빛의 색상과 강도를 할당한 다음 데이터를 생성하여 다른 관찰 지점에서 이러한 이미지를 연결하고 최종 3D 장면을 표시합니다. 사진 외에도 시스템에는 카메라 위치에 대한 데이터가 필요합니다.
연구원들은 이러한 유형의 2D 모델을 3D로 개선했습니다. 지금 몇 년 동안-최종 프레젠테이션에 세부 사항을 추가하고 프레젠테이션 속도를 높입니다. Nvidia는 NeRF 즉석 모델이 현재까지 개발된 것 중 가장 빠르며 렌더링 시간을 몇 분에서 “거의 즉시” 종료되는 프로세스로 단축한다고 말합니다.
Nvidia는 블로그 게시물에서 기술이 더 빠르고 쉽게 구현됨에 따라 모든 종류의 작업에 사용할 수 있다고 말합니다. 업무 설명서.
Nvidia의 Isha Salian은 다음과 같이 말합니다. “이 기술은 2D 이미지 또는 비디오 장면을 촬영하여 실제 세계의 물체의 크기와 모양을 이해하도록 로봇과 자율 주행 자동차를 훈련하는 데 사용할 수 있습니다. 또한 건축 및 엔터테인먼트에서 디지털 표현을 빠르게 생성하는 데 사용할 수 있습니다. 제작자가 수정하고 구축할 수 있는 실제 환경입니다.” (메타버스가 불러일으키는 것 같습니다.)
불행히도 Nvidia는 그 방법에 대한 세부 정보를 공유하지 않았으므로 얼마나 많은 2D 이미지가 필요한지 또는 최종 3D 장면을 렌더링하는 데 얼마나 오래 걸릴지 정확히 알지 못합니다(이는 작업을 수행하는 컴퓨터의 성능에 따라 달라집니다). 표현). 그러나 이 기술은 빠르게 발전하는 것으로 보이며 앞으로 몇 년 안에 실질적인 영향을 미치기 시작할 수 있습니다.