Artwork

Nội dung được cung cấp bởi Nathalie Rozencwajg and Melanie Rozencwajg. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được Nathalie Rozencwajg and Melanie Rozencwajg hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.
Player FM - Ứng dụng Podcast
Chuyển sang chế độ ngoại tuyến với ứng dụng Player FM !

Can AI Unlearn? The Future of AI and Bias Correction

40:30
 
Chia sẻ
 

Manage episode 447826734 series 3482688
Nội dung được cung cấp bởi Nathalie Rozencwajg and Melanie Rozencwajg. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được Nathalie Rozencwajg and Melanie Rozencwajg hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.

In the rapidly evolving world of AI, one of the most pressing questions is: Can AI models truly unlearn?
As AI becomes more integrated into our daily lives, ensuring healthier, bias-free models is crucial. In this episode, we dive deep into a groundbreaking approach—machine unlearning—with Ben Louria, founder of Hirundo.
His platform tackles one of the biggest challenges: removing harmful or biased data from AI systems without requiring a complete retraining. Imagine an AI model that can ‘forget’ misinformation or user-specific data, making the technology more accurate, ethical, and adaptable. Instead of costly and time-consuming retraining, could we just delete the biased data? And what does this mean for AI’s future in industries like healthcare, finance, but also creative fields?
Join us to explore the possibilities of creating healthier AI models and reshaping the future of Artificial Intelligence.
This is an episode you don’t want to miss!

  continue reading

10 tập

Artwork
iconChia sẻ
 
Manage episode 447826734 series 3482688
Nội dung được cung cấp bởi Nathalie Rozencwajg and Melanie Rozencwajg. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được Nathalie Rozencwajg and Melanie Rozencwajg hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.

In the rapidly evolving world of AI, one of the most pressing questions is: Can AI models truly unlearn?
As AI becomes more integrated into our daily lives, ensuring healthier, bias-free models is crucial. In this episode, we dive deep into a groundbreaking approach—machine unlearning—with Ben Louria, founder of Hirundo.
His platform tackles one of the biggest challenges: removing harmful or biased data from AI systems without requiring a complete retraining. Imagine an AI model that can ‘forget’ misinformation or user-specific data, making the technology more accurate, ethical, and adaptable. Instead of costly and time-consuming retraining, could we just delete the biased data? And what does this mean for AI’s future in industries like healthcare, finance, but also creative fields?
Join us to explore the possibilities of creating healthier AI models and reshaping the future of Artificial Intelligence.
This is an episode you don’t want to miss!

  continue reading

10 tập

Tất cả các tập

×
 
Loading …

Chào mừng bạn đến với Player FM!

Player FM đang quét trang web để tìm các podcast chất lượng cao cho bạn thưởng thức ngay bây giờ. Đây là ứng dụng podcast tốt nhất và hoạt động trên Android, iPhone và web. Đăng ký để đồng bộ các theo dõi trên tất cả thiết bị.

 

Hướng dẫn sử dụng nhanh

Nghe chương trình này trong khi bạn khám phá
Nghe