Artwork

Nội dung được cung cấp bởi Mustafa Sultan, MD, Mustafa Sultan, and MD. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được Mustafa Sultan, MD, Mustafa Sultan, and MD hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.
Player FM - Ứng dụng Podcast
Chuyển sang chế độ ngoại tuyến với ứng dụng Player FM !

#066 Bias in Medical AI — Prof Ziad Obermeyer (Berkeley School of Public Health)

47:22
 
Chia sẻ
 

Manage episode 303816397 series 2663557
Nội dung được cung cấp bởi Mustafa Sultan, MD, Mustafa Sultan, and MD. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được Mustafa Sultan, MD, Mustafa Sultan, and MD hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.

How can we design AI systems which remove human bias — rather than perpetuate it?

Ziad Obermeyer is Associate Professor and Blue Cross of California Distinguished Professor of Health Policy and Management at the Berkeley School of Public Health where he researchers and teaches on the intersection of machine learning and healthcare. Some of his most interesting research focuses on algorithmic bias, and how we can better build AI systems which avoid perpetuating and falling into these traps.

We talk about his fascinating story, how he created an AI algorithm which actually reduced bias and superseded human performance and some of the things he’s learnt along the way.

I hope you enjoy.

Prof Obermeyer's new initiative: Nightingale Open Source.

You can find me on Twitter @MustafaSultan and subscribe to my newsletter on www.musty.io

  continue reading

147 tập

Artwork
iconChia sẻ
 
Manage episode 303816397 series 2663557
Nội dung được cung cấp bởi Mustafa Sultan, MD, Mustafa Sultan, and MD. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được Mustafa Sultan, MD, Mustafa Sultan, and MD hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.

How can we design AI systems which remove human bias — rather than perpetuate it?

Ziad Obermeyer is Associate Professor and Blue Cross of California Distinguished Professor of Health Policy and Management at the Berkeley School of Public Health where he researchers and teaches on the intersection of machine learning and healthcare. Some of his most interesting research focuses on algorithmic bias, and how we can better build AI systems which avoid perpetuating and falling into these traps.

We talk about his fascinating story, how he created an AI algorithm which actually reduced bias and superseded human performance and some of the things he’s learnt along the way.

I hope you enjoy.

Prof Obermeyer's new initiative: Nightingale Open Source.

You can find me on Twitter @MustafaSultan and subscribe to my newsletter on www.musty.io

  continue reading

147 tập

Tất cả các tập

×
 
Loading …

Chào mừng bạn đến với Player FM!

Player FM đang quét trang web để tìm các podcast chất lượng cao cho bạn thưởng thức ngay bây giờ. Đây là ứng dụng podcast tốt nhất và hoạt động trên Android, iPhone và web. Đăng ký để đồng bộ các theo dõi trên tất cả thiết bị.

 

Hướng dẫn sử dụng nhanh