Artwork

Nội dung được cung cấp bởi AI Denmark. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được AI Denmark hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.
Player FM - Ứng dụng Podcast
Chuyển sang chế độ ngoại tuyến với ứng dụng Player FM !

XRAI – hjælp til planlægning og evaluering af AI-systemer

39:18
 
Chia sẻ
 

Manage episode 408052209 series 3366058
Nội dung được cung cấp bởi AI Denmark. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được AI Denmark hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.

Der er næppe tvivl om at brugen af kunstig intelligens bringer mange problemer med sig. Det som virker smart på whiteboardet kan hurtigt blive ramt af både tekniske, juridiske og etiske bomber under systemet.

Der bliver talt meget om hvordan vi skal gøre AI mere gennemskueligt, og hvordan vi skal sikre os at de svar algoritmerne giver er korrekte. Og det er ambitioner som det er svært at være uenige med.

Men hvordan kan man vurdere AI-løsningerne, og forsøge at sikre sig, at de så godt som muligt overholder både etiske principper og gældende lovgivning?

Det er spørgsmålet som Per Rådberg Nagbøl fra ITU har forsøgt at besvare med værktøjet XRAI, som er udviklet i samarbejde med Erhvervsstyrelsen

XRAI opdeler udvikling, evaluering og tilpasning af AI-systemer i fire faser, med masser af tjeklister og kontrolpunkter – i håbet om at kunne hjælpe både offentlige institutioner og private virksomheder, der arbejder med AI.

Derudover er der også AI Siden Sidst – med historier om både industrispionage, AI Act og nye Nvidia-chips.

Lyt med 🤖

LINKS

NYHEDER

EMNE

  continue reading

65 tập

Artwork
iconChia sẻ
 
Manage episode 408052209 series 3366058
Nội dung được cung cấp bởi AI Denmark. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được AI Denmark hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.

Der er næppe tvivl om at brugen af kunstig intelligens bringer mange problemer med sig. Det som virker smart på whiteboardet kan hurtigt blive ramt af både tekniske, juridiske og etiske bomber under systemet.

Der bliver talt meget om hvordan vi skal gøre AI mere gennemskueligt, og hvordan vi skal sikre os at de svar algoritmerne giver er korrekte. Og det er ambitioner som det er svært at være uenige med.

Men hvordan kan man vurdere AI-løsningerne, og forsøge at sikre sig, at de så godt som muligt overholder både etiske principper og gældende lovgivning?

Det er spørgsmålet som Per Rådberg Nagbøl fra ITU har forsøgt at besvare med værktøjet XRAI, som er udviklet i samarbejde med Erhvervsstyrelsen

XRAI opdeler udvikling, evaluering og tilpasning af AI-systemer i fire faser, med masser af tjeklister og kontrolpunkter – i håbet om at kunne hjælpe både offentlige institutioner og private virksomheder, der arbejder med AI.

Derudover er der også AI Siden Sidst – med historier om både industrispionage, AI Act og nye Nvidia-chips.

Lyt med 🤖

LINKS

NYHEDER

EMNE

  continue reading

65 tập

Tất cả các tập

×
 
Loading …

Chào mừng bạn đến với Player FM!

Player FM đang quét trang web để tìm các podcast chất lượng cao cho bạn thưởng thức ngay bây giờ. Đây là ứng dụng podcast tốt nhất và hoạt động trên Android, iPhone và web. Đăng ký để đồng bộ các theo dõi trên tất cả thiết bị.

 

Hướng dẫn sử dụng nhanh

Nghe chương trình này trong khi bạn khám phá
Nghe