Artwork

Nội dung được cung cấp bởi Carnegie Mellon University Software Engineering Institute and Members of Technical Staff at the Software Engineering Institute. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được Carnegie Mellon University Software Engineering Institute and Members of Technical Staff at the Software Engineering Institute hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.
Player FM - Ứng dụng Podcast
Chuyển sang chế độ ngoại tuyến với ứng dụng Player FM !

Using Role-Playing Scenarios to Identify Bias in LLMs

45:07
 
Chia sẻ
 

Fetch error

Hmmm there seems to be a problem fetching this series right now. Last successful fetch was on October 11, 2024 16:02 (1M ago)

What now? This series will be checked again in the next day. If you believe it should be working, please verify the publisher's feed link below is valid and includes actual episode links. You can contact support to request the feed be immediately fetched.

Manage episode 440233040 series 2487640
Nội dung được cung cấp bởi Carnegie Mellon University Software Engineering Institute and Members of Technical Staff at the Software Engineering Institute. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được Carnegie Mellon University Software Engineering Institute and Members of Technical Staff at the Software Engineering Institute hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.

Harmful biases in large language models (LLMs) make AI less trustworthy and secure. Auditing for biases can help identify potential solutions and develop better guardrails to make AI safer. In this podcast from the Carnegie Mellon University Software Engineering Institute (SEI), Katie Robinson and Violet Turri, researchers in the SEI’s AI Division, discuss their recent work using role-playing game scenarios to identify biases in LLMs.

  continue reading

430 tập

Artwork
iconChia sẻ
 

Fetch error

Hmmm there seems to be a problem fetching this series right now. Last successful fetch was on October 11, 2024 16:02 (1M ago)

What now? This series will be checked again in the next day. If you believe it should be working, please verify the publisher's feed link below is valid and includes actual episode links. You can contact support to request the feed be immediately fetched.

Manage episode 440233040 series 2487640
Nội dung được cung cấp bởi Carnegie Mellon University Software Engineering Institute and Members of Technical Staff at the Software Engineering Institute. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được Carnegie Mellon University Software Engineering Institute and Members of Technical Staff at the Software Engineering Institute hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.

Harmful biases in large language models (LLMs) make AI less trustworthy and secure. Auditing for biases can help identify potential solutions and develop better guardrails to make AI safer. In this podcast from the Carnegie Mellon University Software Engineering Institute (SEI), Katie Robinson and Violet Turri, researchers in the SEI’s AI Division, discuss their recent work using role-playing game scenarios to identify biases in LLMs.

  continue reading

430 tập

Tất cả các tập

×
 
Loading …

Chào mừng bạn đến với Player FM!

Player FM đang quét trang web để tìm các podcast chất lượng cao cho bạn thưởng thức ngay bây giờ. Đây là ứng dụng podcast tốt nhất và hoạt động trên Android, iPhone và web. Đăng ký để đồng bộ các theo dõi trên tất cả thiết bị.

 

Hướng dẫn sử dụng nhanh