Artwork

Nội dung được cung cấp bởi Conviction. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được Conviction hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.
Player FM - Ứng dụng Podcast
Chuyển sang chế độ ngoại tuyến với ứng dụng Player FM !

OpenAI’s Sora team thinks we’ve only seen the "GPT-1 of video models"

31:24
 
Chia sẻ
 

Manage episode 414538843 series 3444082
Nội dung được cung cấp bởi Conviction. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được Conviction hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.

AI-generated videos are not just leveled-up image generators. But rather, they could be a big step forward on the path to AGI. This week on No Priors, the team from Sora is here to discuss OpenAI’s recently announced generative video model, which can take a text prompt and create realistic, visually coherent, high-definition clips that are up to a minute long.

Sora team leads, Aditya Ramesh, Tim Brooks, and Bill Peebles join Elad and Sarah to talk about developing Sora. The generative video model isn’t yet available for public use but the examples of its work are very impressive. However, they believe we’re still in the GPT-1 era of AI video models and are focused on a slow rollout to ensure the model is in the best place possible to offer value to the user and more importantly they’ve applied all the safety measures possible to avoid deep fakes and misinformation. They also discuss what they’re learning from implementing diffusion transformers, why they believe video generation is taking us one step closer to AGI, and why entertainment may not be the main use case for this tool in the future.

Show Links:

Sign up for new podcasts every week. Email feedback to show@no-priors.com

Follow us on Twitter: @NoPriorsPod | @Saranormous | @EladGil | @_tim_brooks l @billpeeb l @model_mechanic

Show Notes:

(0:00) Sora team Introduction

(1:05) Simulating the world with Sora

(2:25) Building the most valuable consumer product

(5:50) Alternative use cases and simulation capabilities

(8:41) Diffusion transformers explanation

(10:15) Scaling laws for video

(13:08) Applying end-to-end deep learning to video

(15:30) Tuning the visual aesthetic of Sora

(17:08) The road to “desktop Pixar” for everyone

(20:12) Safety for visual models

(22:34) Limitations of Sora

(25:04) Learning from how Sora is learning

(29:32) The biggest misconceptions about video models

  continue reading

97 tập

Artwork
iconChia sẻ
 
Manage episode 414538843 series 3444082
Nội dung được cung cấp bởi Conviction. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được Conviction hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.

AI-generated videos are not just leveled-up image generators. But rather, they could be a big step forward on the path to AGI. This week on No Priors, the team from Sora is here to discuss OpenAI’s recently announced generative video model, which can take a text prompt and create realistic, visually coherent, high-definition clips that are up to a minute long.

Sora team leads, Aditya Ramesh, Tim Brooks, and Bill Peebles join Elad and Sarah to talk about developing Sora. The generative video model isn’t yet available for public use but the examples of its work are very impressive. However, they believe we’re still in the GPT-1 era of AI video models and are focused on a slow rollout to ensure the model is in the best place possible to offer value to the user and more importantly they’ve applied all the safety measures possible to avoid deep fakes and misinformation. They also discuss what they’re learning from implementing diffusion transformers, why they believe video generation is taking us one step closer to AGI, and why entertainment may not be the main use case for this tool in the future.

Show Links:

Sign up for new podcasts every week. Email feedback to show@no-priors.com

Follow us on Twitter: @NoPriorsPod | @Saranormous | @EladGil | @_tim_brooks l @billpeeb l @model_mechanic

Show Notes:

(0:00) Sora team Introduction

(1:05) Simulating the world with Sora

(2:25) Building the most valuable consumer product

(5:50) Alternative use cases and simulation capabilities

(8:41) Diffusion transformers explanation

(10:15) Scaling laws for video

(13:08) Applying end-to-end deep learning to video

(15:30) Tuning the visual aesthetic of Sora

(17:08) The road to “desktop Pixar” for everyone

(20:12) Safety for visual models

(22:34) Limitations of Sora

(25:04) Learning from how Sora is learning

(29:32) The biggest misconceptions about video models

  continue reading

97 tập

Alle episoder

×
 
Loading …

Chào mừng bạn đến với Player FM!

Player FM đang quét trang web để tìm các podcast chất lượng cao cho bạn thưởng thức ngay bây giờ. Đây là ứng dụng podcast tốt nhất và hoạt động trên Android, iPhone và web. Đăng ký để đồng bộ các theo dõi trên tất cả thiết bị.

 

Hướng dẫn sử dụng nhanh

Nghe chương trình này trong khi bạn khám phá
Nghe