Artwork

Nội dung được cung cấp bởi podcast@nature.com and Springer Nature Limited. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được podcast@nature.com and Springer Nature Limited hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.
Player FM - Ứng dụng Podcast
Chuyển sang chế độ ngoại tuyến với ứng dụng Player FM !

Audio long-read: Rise of the robo-writers

23:47
 
Chia sẻ
 

Manage episode 289323293 series 2509444
Nội dung được cung cấp bởi podcast@nature.com and Springer Nature Limited. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được podcast@nature.com and Springer Nature Limited hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.

In 2020, the artificial intelligence (AI) GPT-3 wowed the world with its ability to write fluent streams of text. Trained on billions of words from books, articles and websites, GPT-3 was the latest in a series of ‘large language model’ AIs that are used by companies around the world to improve search results, answer questions, or propose computer code.


However, these large language model are not without their issues. Their training is based on the statistical relationships between the words and phrases, which can lead to them generating toxic or dangerous outputs.


Preventing responses like these is a huge challenge for researchers, who are attempting to do so by addressing biases in training data, or by instilling these AIs with common-sense and moral judgement.


This is an audio version of our feature: Robo-writers: the rise and risks of language-generating AI



Hosted on Acast. See acast.com/privacy for more information.

  continue reading

716 tập

Artwork
iconChia sẻ
 
Manage episode 289323293 series 2509444
Nội dung được cung cấp bởi podcast@nature.com and Springer Nature Limited. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được podcast@nature.com and Springer Nature Limited hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.

In 2020, the artificial intelligence (AI) GPT-3 wowed the world with its ability to write fluent streams of text. Trained on billions of words from books, articles and websites, GPT-3 was the latest in a series of ‘large language model’ AIs that are used by companies around the world to improve search results, answer questions, or propose computer code.


However, these large language model are not without their issues. Their training is based on the statistical relationships between the words and phrases, which can lead to them generating toxic or dangerous outputs.


Preventing responses like these is a huge challenge for researchers, who are attempting to do so by addressing biases in training data, or by instilling these AIs with common-sense and moral judgement.


This is an audio version of our feature: Robo-writers: the rise and risks of language-generating AI



Hosted on Acast. See acast.com/privacy for more information.

  continue reading

716 tập

Tất cả các tập

×
 
Loading …

Chào mừng bạn đến với Player FM!

Player FM đang quét trang web để tìm các podcast chất lượng cao cho bạn thưởng thức ngay bây giờ. Đây là ứng dụng podcast tốt nhất và hoạt động trên Android, iPhone và web. Đăng ký để đồng bộ các theo dõi trên tất cả thiết bị.

 

Hướng dẫn sử dụng nhanh