Artwork

Nội dung được cung cấp bởi Dagbladet Information. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được Dagbladet Information hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.
Player FM - Ứng dụng Podcast
Chuyển sang chế độ ngoại tuyến với ứng dụng Player FM !

Skal vi lade algoritmer være socialrådgivernes spådomskugler?

19:27
 
Chia sẻ
 

Manage episode 391152731 series 3541719
Nội dung được cung cấp bởi Dagbladet Information. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được Dagbladet Information hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.
Myndigheder har eksperimenteret med at bruge algoritmer til at forudse alt fra langtidsledighed til risiko for mistrivsel blandt børn. Men er det etisk forsvarligt at bruge fejlbehæftede modeller til at spå om sårbare borgere? Det er emnet for dagens afsnit af Maskinstorm, hvor Thomas Troels Hildebrandt gæster studiet i Store Kongensgade. Han er professor ved datalogisk institut på Københavns Universitet og forsker i, hvordan man kan bruge kunstig intelligens i det offentlige system. Ifølge Thomas Troels Hildebrandt opstår der hurtigt store etiske og retssikkerhedsmæssige udfordringer, når man forsøger at bruge algoritmer til at spå om borgerne. »For det her er modeller, og der vil altid være fejl i modeller. Så man skal altid tænke over, om vi kan tåle at begå fejl. Det kan man bedre, hvis man ikke retter skytset mod de sårbare, men måske indad mod sagsbehandlingen og spørger, hvordan vi for eksempel kan blive klogere på ventetider eller overholdelse af lovgivning,« siger Thomas Troels Hildebrandt. Din vært i dagens afsnit er journalist Laura Friis Wang. Podcasten er støttet af Novo Nordisk Fonden.
  continue reading

16 tập

Artwork
iconChia sẻ
 
Manage episode 391152731 series 3541719
Nội dung được cung cấp bởi Dagbladet Information. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được Dagbladet Information hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.
Myndigheder har eksperimenteret med at bruge algoritmer til at forudse alt fra langtidsledighed til risiko for mistrivsel blandt børn. Men er det etisk forsvarligt at bruge fejlbehæftede modeller til at spå om sårbare borgere? Det er emnet for dagens afsnit af Maskinstorm, hvor Thomas Troels Hildebrandt gæster studiet i Store Kongensgade. Han er professor ved datalogisk institut på Københavns Universitet og forsker i, hvordan man kan bruge kunstig intelligens i det offentlige system. Ifølge Thomas Troels Hildebrandt opstår der hurtigt store etiske og retssikkerhedsmæssige udfordringer, når man forsøger at bruge algoritmer til at spå om borgerne. »For det her er modeller, og der vil altid være fejl i modeller. Så man skal altid tænke over, om vi kan tåle at begå fejl. Det kan man bedre, hvis man ikke retter skytset mod de sårbare, men måske indad mod sagsbehandlingen og spørger, hvordan vi for eksempel kan blive klogere på ventetider eller overholdelse af lovgivning,« siger Thomas Troels Hildebrandt. Din vært i dagens afsnit er journalist Laura Friis Wang. Podcasten er støttet af Novo Nordisk Fonden.
  continue reading

16 tập

Tất cả các tập

×
 
Loading …

Chào mừng bạn đến với Player FM!

Player FM đang quét trang web để tìm các podcast chất lượng cao cho bạn thưởng thức ngay bây giờ. Đây là ứng dụng podcast tốt nhất và hoạt động trên Android, iPhone và web. Đăng ký để đồng bộ các theo dõi trên tất cả thiết bị.

 

Hướng dẫn sử dụng nhanh

Nghe chương trình này trong khi bạn khám phá
Nghe