Artwork

Nội dung được cung cấp bởi Brian T. O’Neill from Designing for Analytics. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được Brian T. O’Neill from Designing for Analytics hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.
Player FM - Ứng dụng Podcast
Chuyển sang chế độ ngoại tuyến với ứng dụng Player FM !

125 - Human-Centered XAI: Moving from Algorithms to Explainable ML UX with Microsoft Researcher Vera Liao

44:42
 
Chia sẻ
 

Manage episode 376109532 series 2527129
Nội dung được cung cấp bởi Brian T. O’Neill from Designing for Analytics. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được Brian T. O’Neill from Designing for Analytics hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.

Today I’m joined by Vera Liao, Principal Researcher at Microsoft. Vera is a part of the FATE (Fairness, Accountability, Transparency, and Ethics of AI) group, and her research centers around the ethics, explainability, and interpretability of AI products. She is particularly focused on how designers design for explainability. Throughout our conversation, we focus on the importance of taking a human-centered approach to rendering model explainability within a UI, and why incorporating users during the design process informs the data science work and leads to better outcomes. Vera also shares some research on why example-based explanations tend to out-perform [model] feature-based explanations, and why traditional XAI methods LIME and SHAP aren’t the solution to every explainability problem a user may have.

Highlights/ Skip to:

  • I introduce Vera, who is Principal Researcher at Microsoft and whose research mainly focuses on the ethics, explainability, and interpretability of AI (00:35)
  • Vera expands on her view that explainability should be at the core of ML applications (02:36)
  • An example of the non-human approach to explainability that Vera is advocating against (05:35)
  • Vera shares where practitioners can start the process of responsible AI (09:32)
  • Why Vera advocates for doing qualitative research in tandem with model work in order to improve outcomes (13:51)
  • I summarize the slides I saw in Vera’s deck on Human-Centered XAI and Vera expands on my understanding (16:06)
  • Vera’s success criteria for explainability (19:45)
  • The various applications of AI explainability that Vera has seen evolve over the years (21:52)
  • Why Vera is a proponent of example-based explanations over model feature ones (26:15)
  • Strategies Vera recommends for getting feedback from users to determine what the right explainability experience might be (32:07)
  • The research trends Vera would most like to see technical practitioners apply to their work (36:47)
  • Summary of the four-step process Vera outlines for Question-Driven XAI design (39:14)

Links

  continue reading

113 tập

Artwork
iconChia sẻ
 
Manage episode 376109532 series 2527129
Nội dung được cung cấp bởi Brian T. O’Neill from Designing for Analytics. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được Brian T. O’Neill from Designing for Analytics hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.

Today I’m joined by Vera Liao, Principal Researcher at Microsoft. Vera is a part of the FATE (Fairness, Accountability, Transparency, and Ethics of AI) group, and her research centers around the ethics, explainability, and interpretability of AI products. She is particularly focused on how designers design for explainability. Throughout our conversation, we focus on the importance of taking a human-centered approach to rendering model explainability within a UI, and why incorporating users during the design process informs the data science work and leads to better outcomes. Vera also shares some research on why example-based explanations tend to out-perform [model] feature-based explanations, and why traditional XAI methods LIME and SHAP aren’t the solution to every explainability problem a user may have.

Highlights/ Skip to:

  • I introduce Vera, who is Principal Researcher at Microsoft and whose research mainly focuses on the ethics, explainability, and interpretability of AI (00:35)
  • Vera expands on her view that explainability should be at the core of ML applications (02:36)
  • An example of the non-human approach to explainability that Vera is advocating against (05:35)
  • Vera shares where practitioners can start the process of responsible AI (09:32)
  • Why Vera advocates for doing qualitative research in tandem with model work in order to improve outcomes (13:51)
  • I summarize the slides I saw in Vera’s deck on Human-Centered XAI and Vera expands on my understanding (16:06)
  • Vera’s success criteria for explainability (19:45)
  • The various applications of AI explainability that Vera has seen evolve over the years (21:52)
  • Why Vera is a proponent of example-based explanations over model feature ones (26:15)
  • Strategies Vera recommends for getting feedback from users to determine what the right explainability experience might be (32:07)
  • The research trends Vera would most like to see technical practitioners apply to their work (36:47)
  • Summary of the four-step process Vera outlines for Question-Driven XAI design (39:14)

Links

  continue reading

113 tập

Tất cả các tập

×
 
Loading …

Chào mừng bạn đến với Player FM!

Player FM đang quét trang web để tìm các podcast chất lượng cao cho bạn thưởng thức ngay bây giờ. Đây là ứng dụng podcast tốt nhất và hoạt động trên Android, iPhone và web. Đăng ký để đồng bộ các theo dõi trên tất cả thiết bị.

 

Hướng dẫn sử dụng nhanh