Artwork

Nội dung được cung cấp bởi Aaron Bergman. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được Aaron Bergman hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.
Player FM - Ứng dụng Podcast
Chuyển sang chế độ ngoại tuyến với ứng dụng Player FM !

AI Wellbeing | Simon Goldstein | EAGxAustralia 2023

27:32
 
Chia sẻ
 

Manage episode 424714166 series 3503936
Nội dung được cung cấp bởi Aaron Bergman. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được Aaron Bergman hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.

Simon Goldstein is a research fellow at the Center for AI Safety, and an associate professor of philosophy at Australian Catholic University. His research focuses on AI safety and AI wellbeing. He is especially interested in new types of AI systems that enrich LLMs with agential scaffolding, to create AI systems that have the semblance of a folk psychology. Simon argues that some AI systems today have wellbeing, so that it could be morally wrong to frustrate their goals. He surveys the main philosophical theories of belief and desire, and argues that according to most of these theories, some AI systems have beliefs and desires. Then he surveys the main philosophical theories of wellbeing, and argues that AI systems with beliefs and desires have wellbeing. Finally, he argues that uncertainty about AI wellbeing requires us to dramatically reassess our relationship with the intelligent systems we create. MC: Bridget Loughhead

Watch on Youtube: https://www.youtube.com/watch?v=21fbCIaZPlA

  continue reading

159 tập

Artwork
iconChia sẻ
 
Manage episode 424714166 series 3503936
Nội dung được cung cấp bởi Aaron Bergman. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được Aaron Bergman hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.

Simon Goldstein is a research fellow at the Center for AI Safety, and an associate professor of philosophy at Australian Catholic University. His research focuses on AI safety and AI wellbeing. He is especially interested in new types of AI systems that enrich LLMs with agential scaffolding, to create AI systems that have the semblance of a folk psychology. Simon argues that some AI systems today have wellbeing, so that it could be morally wrong to frustrate their goals. He surveys the main philosophical theories of belief and desire, and argues that according to most of these theories, some AI systems have beliefs and desires. Then he surveys the main philosophical theories of wellbeing, and argues that AI systems with beliefs and desires have wellbeing. Finally, he argues that uncertainty about AI wellbeing requires us to dramatically reassess our relationship with the intelligent systems we create. MC: Bridget Loughhead

Watch on Youtube: https://www.youtube.com/watch?v=21fbCIaZPlA

  continue reading

159 tập

Tất cả các tập

×
 
Loading …

Chào mừng bạn đến với Player FM!

Player FM đang quét trang web để tìm các podcast chất lượng cao cho bạn thưởng thức ngay bây giờ. Đây là ứng dụng podcast tốt nhất và hoạt động trên Android, iPhone và web. Đăng ký để đồng bộ các theo dõi trên tất cả thiết bị.

 

Hướng dẫn sử dụng nhanh