Artwork

Nội dung được cung cấp bởi Joel Kaczmarek. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được Joel Kaczmarek hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.
Player FM - Ứng dụng Podcast
Chuyển sang chế độ ngoại tuyến với ứng dụng Player FM !

Algorithmic Bias: Wenn eine KI dich diskriminiert | #Diversity 🏳️‍🌈

31:44
 
Chia sẻ
 

Manage episode 350151638 series 1253776
Nội dung được cung cấp bởi Joel Kaczmarek. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được Joel Kaczmarek hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.
Warum eine empathische Arbeitswelt wichtig ist und wie sie KIs beeinflusst EXPERTENGESPRÄCH | Eine künstliche Intelligenz kann nur so sensibel sein, wie der Mensch, der sie programmiert hat. Dadurch dass es auch beim Menschen immer noch viele Blindspots beim Thema Diversity gibt, spiegeln sich diese natürlich auch in der Maschine wieder. Im Gespräch mit Autorin Kenza Ait Si Abbou, erkunden Joel und Lunia diesmal, wie man diese Algorithmic Biases erkennt und korrigieren kann und wie man sowohl Mensch, als letztlich auch künstliche Intelligenz für Diversity besser sensibilisieren kann. Du erfährst... …warum Algorithmic Biases entstehen …welche Algorithmic Biases in KI derzeit ein Problem sind …ob man diese Biases einfach „reparieren“ kann …wie die Methode des Reinforced Learnings mit dem Thema Diskriminierung umgeht …ob zuviel Nachbearbeitung von KI-Ergebnissen auch eine Gefahr darstellen können …mit welchen Methoden man Diskriminierung entlernen kann …welche Empathie in die Führung spielt …wie man Hierarchie-Barrieren innerhalb einer Firma abbauen kann ➡️ Du konntest dir keine Notizen machen? Unser [digital kompakt+ Newsletter](newsletter.digitalkompakt.de) fasst dir für jede Folge die wichtigsten Punkte zusammen Diese Episode dreht sich schwerpunktmäßig um Diversity: Lasst uns Organisationen neu, offen und tolerant denken! Nachdem wir anfangs die Organisationsentwicklerin Marina Löwe und Ratepay-Gründerin Miriam Wohlfarth wiederholt vor dem Mirko hatten, um dich für Diversity zu sensibilisieren, diskutiert Joel mittlerweile regelmäßig mit Lunia Hara (Diconium) zu Themen rund um Leadership und Diversity. Dabei geht es den beiden explizit nicht um Mann oder Frau, sondern um die Schaffung von Empathie füreinander sowie ein ganzheitliches Bild und Verständnis für verschiedene Rollen und Perspektiven. __________________________ ||||| PERSONEN ||||| 👤 Joel Kaczmarek, Geschäftsführer digital kompakt 👤 Lunia Hara, LinkedIn Changemaker 👤 Kenza Ait Si Abbou, Autorin & Director Client Engineering DACH bei IBM __________________________ ||||| SPONSOREN ||||| 🔥 [Übersicht](https://www.digitalkompakt.de/sponsoren/) aller Sponsoren __________________________ ||||| KAPITEL ||||| (00:00:00) Vorstellung und Einführung ins Thema (00:04:38) Was ist Algorithmic Bias? (00:08:00) Kann man Algorithmic Bias reparieren? (00:13:05) Reinforcement Learning (00:17:18) Wie kann man Diversity lehren? (00:20:45) Empathie in der Führung __________________________ ||||| WIR ||||| 💛 [Mehr](https://lnk.to/dkompakt) tolle Sachen von uns 👥 Wir von digital kompakt streben die Verwendung einer geschlechtsneutralen Sprache an. In Fällen, in denen dies nicht gelingt, gelten sämtliche Personenbezeichnungen für alle Geschlechter.
  continue reading

1040 tập

Artwork
iconChia sẻ
 
Manage episode 350151638 series 1253776
Nội dung được cung cấp bởi Joel Kaczmarek. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được Joel Kaczmarek hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.
Warum eine empathische Arbeitswelt wichtig ist und wie sie KIs beeinflusst EXPERTENGESPRÄCH | Eine künstliche Intelligenz kann nur so sensibel sein, wie der Mensch, der sie programmiert hat. Dadurch dass es auch beim Menschen immer noch viele Blindspots beim Thema Diversity gibt, spiegeln sich diese natürlich auch in der Maschine wieder. Im Gespräch mit Autorin Kenza Ait Si Abbou, erkunden Joel und Lunia diesmal, wie man diese Algorithmic Biases erkennt und korrigieren kann und wie man sowohl Mensch, als letztlich auch künstliche Intelligenz für Diversity besser sensibilisieren kann. Du erfährst... …warum Algorithmic Biases entstehen …welche Algorithmic Biases in KI derzeit ein Problem sind …ob man diese Biases einfach „reparieren“ kann …wie die Methode des Reinforced Learnings mit dem Thema Diskriminierung umgeht …ob zuviel Nachbearbeitung von KI-Ergebnissen auch eine Gefahr darstellen können …mit welchen Methoden man Diskriminierung entlernen kann …welche Empathie in die Führung spielt …wie man Hierarchie-Barrieren innerhalb einer Firma abbauen kann ➡️ Du konntest dir keine Notizen machen? Unser [digital kompakt+ Newsletter](newsletter.digitalkompakt.de) fasst dir für jede Folge die wichtigsten Punkte zusammen Diese Episode dreht sich schwerpunktmäßig um Diversity: Lasst uns Organisationen neu, offen und tolerant denken! Nachdem wir anfangs die Organisationsentwicklerin Marina Löwe und Ratepay-Gründerin Miriam Wohlfarth wiederholt vor dem Mirko hatten, um dich für Diversity zu sensibilisieren, diskutiert Joel mittlerweile regelmäßig mit Lunia Hara (Diconium) zu Themen rund um Leadership und Diversity. Dabei geht es den beiden explizit nicht um Mann oder Frau, sondern um die Schaffung von Empathie füreinander sowie ein ganzheitliches Bild und Verständnis für verschiedene Rollen und Perspektiven. __________________________ ||||| PERSONEN ||||| 👤 Joel Kaczmarek, Geschäftsführer digital kompakt 👤 Lunia Hara, LinkedIn Changemaker 👤 Kenza Ait Si Abbou, Autorin & Director Client Engineering DACH bei IBM __________________________ ||||| SPONSOREN ||||| 🔥 [Übersicht](https://www.digitalkompakt.de/sponsoren/) aller Sponsoren __________________________ ||||| KAPITEL ||||| (00:00:00) Vorstellung und Einführung ins Thema (00:04:38) Was ist Algorithmic Bias? (00:08:00) Kann man Algorithmic Bias reparieren? (00:13:05) Reinforcement Learning (00:17:18) Wie kann man Diversity lehren? (00:20:45) Empathie in der Führung __________________________ ||||| WIR ||||| 💛 [Mehr](https://lnk.to/dkompakt) tolle Sachen von uns 👥 Wir von digital kompakt streben die Verwendung einer geschlechtsneutralen Sprache an. In Fällen, in denen dies nicht gelingt, gelten sämtliche Personenbezeichnungen für alle Geschlechter.
  continue reading

1040 tập

Tất cả các tập

×
 
Loading …

Chào mừng bạn đến với Player FM!

Player FM đang quét trang web để tìm các podcast chất lượng cao cho bạn thưởng thức ngay bây giờ. Đây là ứng dụng podcast tốt nhất và hoạt động trên Android, iPhone và web. Đăng ký để đồng bộ các theo dõi trên tất cả thiết bị.

 

Hướng dẫn sử dụng nhanh