오늘 OpenAI는 텍스트 명령만으로 HD 화질의 비디오를 생성할 수 있는 새로운 텍스트 기반 AI 비디오 모델 “SORA”를 공개했습니다. OpenAI는 제공된 세부 정보, 설명 또는 정지 이미지로 SORA는 여러 캐릭터, 다양한 유형의 동작, 복잡한 장면 및 배경 세부 정보가 있는 1080p 영화와 같은 장면을 생성할 수 있다고 주장합니다.
소라는 또한 비디오 클립을 “확장”할 수 있는데, 이는 누락된 세부 정보를 채우는 데 가장 좋습니다.
OpenAI는 블로그 게시물에서 “Sora는 언어에 대한 깊은 이해를 가지고 있어 프롬프트를 정확하게 해석하고 생생한 감정을 표현하는 매력적인 캐릭터를 생성할 수 있습니다. 이 모델은 사용자가 프롬프트에서 요청한 내용뿐만 아니라 그러한 것들이 물리적 세계에 어떻게 존재하는지도 이해합니다.”라고 적었습니다.
그래서 OpenAI의 “Sora” 데모 페이지에서 그들은 위의 진술처럼 그것이 얼마나 훌륭한지 이야기하기 위해 큰 단어를 사용하고 있습니다. 하지만 그들이 모델에서 선택한 예시를 확인하면 꽤 멋진 것처럼 보입니다. 우리가 본 것 중에서는 적어도 다른 AI 텍스트-비디오 생성기보다 훨씬 더 좋아 보입니다.
현재 Sora는 최대 1분 길이의 사진처럼 사실적, 애니메이션, 흑백 등 다양한 스타일로 비디오를 생성할 수 있는 기능을 갖추고 있습니다. 이는 일반적으로 다른 텍스트-비디오 AI 모델에서 볼 수 있는 것보다 훨씬 깁니다. 인상적인 점은 이러한 비디오가 일반적으로 의미가 있다는 것입니다. 다른 일부 AI 모델에서 발생하는 것처럼 물체가 불가능한 방식으로 움직이는 이상한 순간이 항상 있는 것은 아닙니다.
다음은 Sora에서 생성한 비디오에서 생성된 일부 gif 샘플입니다(비디오 클립은 OpenAI에서 제공)
OpenAI는 또한 “현재 모델에는 약점이 있습니다. 복잡한 장면의 물리를 정확하게 시뮬레이션하는 데 어려움을 겪을 수 있으며, 원인과 결과의 특정 사례를 이해하지 못할 수 있습니다. 예를 들어, 사람이 쿠키를 한 입 베어물었지만 나중에 쿠키에 물린 자국이 없을 수 있습니다.
이 모델은 또한 프롬프트의 공간적 세부 사항을 혼동할 수 있습니다(예: 좌우를 혼동). 또한 특정 카메라 궤적을 따르는 것과 같이 시간이 지남에 따라 발생하는 이벤트에 대한 정확한 설명에 어려움을 겪을 수 있습니다.
OpenAI는 또한 블로그 게시물에서 Sora를 OpenAI 제품에서 사용할 수 있게 하기 전에 몇 가지 중요한 안전 조치를 취할 것이라고 주장했습니다. 잘못된 정보, 증오적인 콘텐츠와 같은 분야의 도메인 전문가인 레드 팀머가 모델의 적대적 테스트를 위해 모집될 것입니다.
Sora AI에 대한 안전성 및 우려 사항
OpenAI는 Sora가 생성한 비디오를 구별할 수 있는 탐지 분류기를 포함하여 오해의 소지가 있는 콘텐츠 탐지를 돕기 위한 도구가 개발되고 있다고 말합니다. OpenAi는 또한 OpenAI 제품에서 사용 가능한 모델보다 먼저 이 모델에 C2PA 메타데이터를 포함할 계획입니다.
예를 들어, OpenAI 제품 내에서 텍스트 분류기는 극단적인 폭력, 성적 콘텐츠, 증오 이미지, 유명인 유사성 또는 타인의 지적 재산과 같은 사용 정책을 위반하는 텍스트 입력 프롬프트를 면밀히 조사하여 거부합니다. 또한 모든 생성된 비디오 프레임을 면밀히 조사하여 사용자에게 제시하기 전에 사용 정책을 준수하도록 하는 강력한 이미지 분류기도 개발되었습니다.
OpenAi는 블로그에서 안전과 우려에 대해 “전 세계 정책 입안자, 교육자, 예술가와의 교류는 이 새로운 기술에 대한 우려를 이해하고 긍정적인 사용 사례를 파악하기 위해 계획되었습니다. 광범위한 연구와 테스트에도 불구하고 모든 유익하거나 남용적인 사용을 예측할 수 있는 것은 아닙니다. 따라서 실제 적용에서 배우는 것은 시간이 지남에 따라 점점 더 안전한 AI 시스템을 만들고 출시하는 데 중요한 측면으로 간주됩니다.”라고 인용했습니다.
“소라”에 대해 자세히 알아보려면 여기를 클릭하세요.
“소라”의 발매일은 아직 확정되지 않았습니다. 업데이트를 받을 때마다 이 웹사이트나 소셜 미디어 핸들을 통해 업데이트해 드리겠습니다.
이 새로운 생성 AI 모델에 대한 여러분의 생각을 아래에 댓글로 남겨주세요.
더 많은 업데이트를 받아보려면 Cybersundar를 팔로우하세요:
페이스북: http://facebook.com/cybersundar
트위터: http://twitter.com/cybersundar
인스 타 그램: http://instagram.com/cybersundar
스마트 홈을 보호하고 싶으신가요? 여기에서 보호 방법을 알아보세요.