Artwork

Nội dung được cung cấp bởi Center for Humane Technology, Tristan Harris, Aza Raskin, and The Center for Humane Technology. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được Center for Humane Technology, Tristan Harris, Aza Raskin, and The Center for Humane Technology hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.
Player FM - Ứng dụng Podcast
Chuyển sang chế độ ngoại tuyến với ứng dụng Player FM !

Former OpenAI Engineer William Saunders on Silence, Safety, and the Right to Warn

37:47
 
Chia sẻ
 

Manage episode 422447594 series 2999942
Nội dung được cung cấp bởi Center for Humane Technology, Tristan Harris, Aza Raskin, and The Center for Humane Technology. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được Center for Humane Technology, Tristan Harris, Aza Raskin, and The Center for Humane Technology hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.

This week, a group of current and former employees from OpenAI and Google DeepMind penned an open letter accusing the industry’s leading companies of prioritizing profits over safety. This comes after a spate of high profile departures from OpenAI, including co-founder Ilya Sutskever and senior researcher Jan Leike, as well as reports that OpenAI has gone to great lengths to silence would-be whistleblowers.

The writers of the open letter argue that researchers have a “right to warn” the public about AI risks and laid out a series of principles that would protect that right. In this episode, we sit down with one of those writers: William Saunders, who left his job as a research engineer at OpenAI in February. William is now breaking the silence on what he saw at OpenAI that compelled him to leave the company and to put his name to this letter.

RECOMMENDED MEDIA

The Right to Warn Open Letter

My Perspective On "A Right to Warn about Advanced Artificial Intelligence": A follow-up from William about the letter

Leaked OpenAI documents reveal aggressive tactics toward former employees: An investigation by Vox into OpenAI’s policy of non-disparagement.

RECOMMENDED YUA EPISODES

  1. A First Step Toward AI Regulation with Tom Wheeler
  2. Spotlight on AI: What Would It Take For This to Go Well?
  3. Big Food, Big Tech and Big AI with Michael Moss
  4. Can We Govern AI? With Marietje Schaake

Your Undivided Attention is produced by the Center for Humane Technology. Follow us on Twitter: @HumaneTech_

  continue reading

123 tập

Artwork
iconChia sẻ
 
Manage episode 422447594 series 2999942
Nội dung được cung cấp bởi Center for Humane Technology, Tristan Harris, Aza Raskin, and The Center for Humane Technology. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được Center for Humane Technology, Tristan Harris, Aza Raskin, and The Center for Humane Technology hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.

This week, a group of current and former employees from OpenAI and Google DeepMind penned an open letter accusing the industry’s leading companies of prioritizing profits over safety. This comes after a spate of high profile departures from OpenAI, including co-founder Ilya Sutskever and senior researcher Jan Leike, as well as reports that OpenAI has gone to great lengths to silence would-be whistleblowers.

The writers of the open letter argue that researchers have a “right to warn” the public about AI risks and laid out a series of principles that would protect that right. In this episode, we sit down with one of those writers: William Saunders, who left his job as a research engineer at OpenAI in February. William is now breaking the silence on what he saw at OpenAI that compelled him to leave the company and to put his name to this letter.

RECOMMENDED MEDIA

The Right to Warn Open Letter

My Perspective On "A Right to Warn about Advanced Artificial Intelligence": A follow-up from William about the letter

Leaked OpenAI documents reveal aggressive tactics toward former employees: An investigation by Vox into OpenAI’s policy of non-disparagement.

RECOMMENDED YUA EPISODES

  1. A First Step Toward AI Regulation with Tom Wheeler
  2. Spotlight on AI: What Would It Take For This to Go Well?
  3. Big Food, Big Tech and Big AI with Michael Moss
  4. Can We Govern AI? With Marietje Schaake

Your Undivided Attention is produced by the Center for Humane Technology. Follow us on Twitter: @HumaneTech_

  continue reading

123 tập

Tất cả các tập

×
 
Loading …

Chào mừng bạn đến với Player FM!

Player FM đang quét trang web để tìm các podcast chất lượng cao cho bạn thưởng thức ngay bây giờ. Đây là ứng dụng podcast tốt nhất và hoạt động trên Android, iPhone và web. Đăng ký để đồng bộ các theo dõi trên tất cả thiết bị.

 

Hướng dẫn sử dụng nhanh