Artwork

Nội dung được cung cấp bởi Mark Latimer. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được Mark Latimer hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.
Player FM - Ứng dụng Podcast
Chuyển sang chế độ ngoại tuyến với ứng dụng Player FM !

AI Chronicles: Learning from Mistakes, Advancing Responsibly

11:25
 
Chia sẻ
 

Manage episode 389234156 series 3537258
Nội dung được cung cấp bởi Mark Latimer. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được Mark Latimer hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.

00:01: Intro

01:21: Microsoft's Tay: Mimicking negativity

03:02: Uber's fatality: Safety concerns

05:00: Amazon's bias: Gender discrimination

06:24: Google misclassifies: Algorithmic bias

08:28: IBM Watson criticized: Contradicting guidelines

09:55: Facial recognition misidentifies: Bias concerns

11:23: Tesla's Autopilot incidents: Safety questions

12:53: OpenAI's GPT-3 and Tay: Ethical challenges

14:20: Lessons learned: Transparency, accountability, improvement

15:32: Open dialogue: AI failures, ethical practices

16:29: Closing gratitude

  continue reading

22 tập

Artwork
iconChia sẻ
 
Manage episode 389234156 series 3537258
Nội dung được cung cấp bởi Mark Latimer. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được Mark Latimer hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.

00:01: Intro

01:21: Microsoft's Tay: Mimicking negativity

03:02: Uber's fatality: Safety concerns

05:00: Amazon's bias: Gender discrimination

06:24: Google misclassifies: Algorithmic bias

08:28: IBM Watson criticized: Contradicting guidelines

09:55: Facial recognition misidentifies: Bias concerns

11:23: Tesla's Autopilot incidents: Safety questions

12:53: OpenAI's GPT-3 and Tay: Ethical challenges

14:20: Lessons learned: Transparency, accountability, improvement

15:32: Open dialogue: AI failures, ethical practices

16:29: Closing gratitude

  continue reading

22 tập

Tất cả các tập

×
 
Loading …

Chào mừng bạn đến với Player FM!

Player FM đang quét trang web để tìm các podcast chất lượng cao cho bạn thưởng thức ngay bây giờ. Đây là ứng dụng podcast tốt nhất và hoạt động trên Android, iPhone và web. Đăng ký để đồng bộ các theo dõi trên tất cả thiết bị.

 

Hướng dẫn sử dụng nhanh