Artwork

Nội dung được cung cấp bởi DARPA. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được DARPA hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.
Player FM - Ứng dụng Podcast
Chuyển sang chế độ ngoại tuyến với ứng dụng Player FM !

Episode 83: When Should Machines Decide?

20:59
 
Chia sẻ
 

Manage episode 446577795 series 1314130
Nội dung được cung cấp bởi DARPA. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được DARPA hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.

What characteristics make a person trustworthy? Under what circumstances would a person delegate life or death decisions to artificial intelligence (AI)? Does it matter that AI systems reflect trustworthy humans’ decision-making preferences, morals, and ethics? If so, what characteristics are most important?

These are some of the fundamental questions DARPA researchers are exploring for the In the Moment (ITM) program, which aims to support the development of algorithms that are trusted to independently make decisions in difficult domains, particularly in significant trauma events such as battlefield triage.

DARPA’s research has identified the need for fundamentally different approaches to advance AI technology to a place where we’re willing to trust it and not be foolish to do so. Continuing themes from our mini-series on ELSI – ethical, legal, and societal implications of new technologies and capabilities – we meet with DARPA’s ITM program manager, Dr. Patrick Shafto, and the ITM performers and ELSI advisors, who break down how they’re tackling the fundamental question of alignment in the context of human decision-makers and autonomous decision-making tools.

In case you missed them, check out our previous ELSI series episodes at the following links:

Episode 79: Integrating ELSI

Episode 78: Introducing ELSI

Our special thanks to the following ITM performers and advisors for their contributions to this episode (in order of their appearance):

· Alice Leung, RTX BBN

· Joseph Cohn, SoarTech

· Matthew Molineaux, Parallax Advanced Research

· Arslan Basharat, Kitware Inc.

· Jennifer McVay, CACI

· Dave Cotting, Institute for Defense Analyses (IDA)

· Sarah Daly, IDA

· Lauren Diaz, University of Maryland Applied Research Laboratory for Intelligence and Security (ARLIS)

· Ellie Tyler, ARLIS

  continue reading

117 tập

Artwork
iconChia sẻ
 
Manage episode 446577795 series 1314130
Nội dung được cung cấp bởi DARPA. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được DARPA hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.

What characteristics make a person trustworthy? Under what circumstances would a person delegate life or death decisions to artificial intelligence (AI)? Does it matter that AI systems reflect trustworthy humans’ decision-making preferences, morals, and ethics? If so, what characteristics are most important?

These are some of the fundamental questions DARPA researchers are exploring for the In the Moment (ITM) program, which aims to support the development of algorithms that are trusted to independently make decisions in difficult domains, particularly in significant trauma events such as battlefield triage.

DARPA’s research has identified the need for fundamentally different approaches to advance AI technology to a place where we’re willing to trust it and not be foolish to do so. Continuing themes from our mini-series on ELSI – ethical, legal, and societal implications of new technologies and capabilities – we meet with DARPA’s ITM program manager, Dr. Patrick Shafto, and the ITM performers and ELSI advisors, who break down how they’re tackling the fundamental question of alignment in the context of human decision-makers and autonomous decision-making tools.

In case you missed them, check out our previous ELSI series episodes at the following links:

Episode 79: Integrating ELSI

Episode 78: Introducing ELSI

Our special thanks to the following ITM performers and advisors for their contributions to this episode (in order of their appearance):

· Alice Leung, RTX BBN

· Joseph Cohn, SoarTech

· Matthew Molineaux, Parallax Advanced Research

· Arslan Basharat, Kitware Inc.

· Jennifer McVay, CACI

· Dave Cotting, Institute for Defense Analyses (IDA)

· Sarah Daly, IDA

· Lauren Diaz, University of Maryland Applied Research Laboratory for Intelligence and Security (ARLIS)

· Ellie Tyler, ARLIS

  continue reading

117 tập

Tất cả các tập

×
 
Loading …

Chào mừng bạn đến với Player FM!

Player FM đang quét trang web để tìm các podcast chất lượng cao cho bạn thưởng thức ngay bây giờ. Đây là ứng dụng podcast tốt nhất và hoạt động trên Android, iPhone và web. Đăng ký để đồng bộ các theo dõi trên tất cả thiết bị.

 

Hướng dẫn sử dụng nhanh