32 subscribers
Chuyển sang chế độ ngoại tuyến với ứng dụng Player FM !
Podcast đáng để nghe
TÀI TRỢ BỞI


1 Pushing Past Stagnation & Business Plateaus 30:21
Intro to distributed
Manage episode 296991575 series 2921809
Today, Shen Li (mrshenli) joins me to talk about distributed computation in PyTorch. What is distributed? What kinds of things go into making distributed work in PyTorch? What's up with all of the optimizations people want to do here?
Further reading.
- PyTorch distributed overview https://pytorch.org/tutorials/beginner/dist_overview.html
- Distributed data parallel https://pytorch.org/docs/stable/notes/ddp.html
83 tập
Manage episode 296991575 series 2921809
Today, Shen Li (mrshenli) joins me to talk about distributed computation in PyTorch. What is distributed? What kinds of things go into making distributed work in PyTorch? What's up with all of the optimizations people want to do here?
Further reading.
- PyTorch distributed overview https://pytorch.org/tutorials/beginner/dist_overview.html
- Distributed data parallel https://pytorch.org/docs/stable/notes/ddp.html
83 tập
Tất cả các tập
×








1 Tensor subclasses and Liskov substitution principle 19:13


1 DataLoader with multiple workers leaks memory 16:38

1 Multiple dispatch in __torch_function__ 14:20


1 Asynchronous versus synchronous execution 15:03





1 API design via lexical and dynamic scoping 21:44









Chào mừng bạn đến với Player FM!
Player FM đang quét trang web để tìm các podcast chất lượng cao cho bạn thưởng thức ngay bây giờ. Đây là ứng dụng podcast tốt nhất và hoạt động trên Android, iPhone và web. Đăng ký để đồng bộ các theo dõi trên tất cả thiết bị.