Artwork

Nội dung được cung cấp bởi Instituto Claro. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được Instituto Claro hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.
Player FM - Ứng dụng Podcast
Chuyển sang chế độ ngoại tuyến với ứng dụng Player FM !

O que é racismo algorítmico?

8:03
 
Chia sẻ
 

Manage episode 421028229 series 3097134
Nội dung được cung cấp bởi Instituto Claro. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được Instituto Claro hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.

Especialista explica como a inteligência artificial reproduz o preconceito nos ambientes virtuais

Racismo algorítmico é uma espécie de transposição do racismo estrutural da sociedade para ambientes digitais. A discriminação acontece principalmente por meio de ferramentas de inteligência artificial, que são alimentadas por algoritmos.

“Sistemas algorítmicos, às vezes chamados de inteligência artificial, são sistemas que tomam algum tipo de decisão a partir de alguns objetivos definidos: ranquear um conteúdo, classificar uma pessoa ou mesmo transformar um tipo de conteúdo ou de imagem ou de mídia. O problema é: temos um histórico de séculos de violência racial e de discriminação. Então, por exemplo, se um sistema de IA [inteligência artificial] generativa, que faz uma foto aparentemente de forma automatizada, se baseia no histórico de fotos sobre pessoas negras no Brasil, vai haver uma representação muito negativa, relacionada à criminalidade, relacionada à violência, relacionada à pobreza”, explica o mestre em comunicação e cultura contemporâneas pela Universidade Federal da Bahia (UFBA) Tarcízio Silva.

Autor do livro “Racismo Algorítmico: Inteligência artificial e Discriminação nas Redes Digitais”, o pesquisador reflete nesse podcast sobre o que acontece quando as máquinas e programas apresentam resultados discriminatórios. No áudio, Silva comenta que é falsa a ideia de que tecnologias digitais seriam neutras.

“Quando a gente pensa a internet, que foi muito festejada como a infovia do conhecimento, de fato revolucionou como a gente circula conhecimento, mas ao mesmo tempo aumentou a insegurança sobre o que é verdade e o que não é verdade. E a desinformação passou cada vez mais a ser estratégica para alguns grupos que preferem que a desinformação circule para diferentes fins: ganhos políticos, financeiros etc.”, argumenta.

Um exemplo de racismo algorítmico é quando uma pessoa negra é representada de forma negativa no resultado da busca de imagens na internet ou a partir de ferramentas de inteligência artificial. A doutora em ciência política pela Universidade Federal de Minas Gerais (UFMG) e pesquisadora do Data Privacy Brasil Johanna Monagreda cita o caso da deputada estadual Renata Souza (Psol-RJ) que, em outubro de 2023, relatou ter passado por esse tipo de discriminação ao gerar uma imagem via inteligência artificial.

“Ela deu as instruções para o aplicativo: ‘Ah, eu quero que você faça a imagem de uma mulher negra com cabelo black na favela’. Ela descreveu a imagem que queria, e a inteligência artificial devolveu para ela a imagem de uma mulher negra com cabelo black na favela e incorporou uma arma na mão daquele desenho. Esse é um claro exemplo de racismo algorítmico, porque estereótipos sobre pessoas negras e sobre estar na favela ou a vida em comunidade acabaram sendo imbricados na tecnologia, de forma que, na produção dessa imagem, a própria tecnologia fez a relação que a humanidade faz, que é aquela relação de a favela como um território de violência”, explica Monagreda.

Os pesquisadores trazem também outros exemplos com consequências que podem ser ainda mais prejudiciais. “Como um aplicativo de transporte, que estabelece preços maiores para comunidades onde mais pessoas negras e pobres moram ou mesmo no caso do reconhecimento facial, que tem uma precisão inferior quando se pensa em pessoas não brancas de modo geral”, afirma Silva.

Monagreda comenta ainda o caso do torcedor do time de futebol Confiança, que, em 13 de abril de 2024, foi detido por agentes da polícia militar por erro de reconhecimento facial. A situação aconteceu na final do Campeonato Sergipano. “Ele foi identificado pela câmera de reconhecimento facial como uma pessoa em conflito com a lei, e ele teve que passar por uma abordagem policial, saiu do estádio algemado. Mas, além disso, ele teve um constrangimento público muito grande, porque foi num estádio, na frente de todo mundo”, argumenta a pesquisadora.

Após o episódio, foi suspenso o uso de reconhecimento facial no estádio durante os jogos do time sergipano. Silva acredita que situações assim fazem uma parcela das pessoas perceber a necessidade de ter um olhar mais crítico sobre o que é acessado online.

“Isso é importante, é positivo, em alguma medida. E se a gente conseguir transformar a educação para que cada vez mais, enquanto cidadãos, possamos desenvolver essas habilidades – pesquisar a veracidade de informações e interagir online –, podemos ter um futuro mais produtivo, justo e seguro para todos, conclui o pesquisador.

Crédito da imagem: VioletaStoimenova – Getty Images

  continue reading

357 tập

Artwork
iconChia sẻ
 
Manage episode 421028229 series 3097134
Nội dung được cung cấp bởi Instituto Claro. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được Instituto Claro hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.

Especialista explica como a inteligência artificial reproduz o preconceito nos ambientes virtuais

Racismo algorítmico é uma espécie de transposição do racismo estrutural da sociedade para ambientes digitais. A discriminação acontece principalmente por meio de ferramentas de inteligência artificial, que são alimentadas por algoritmos.

“Sistemas algorítmicos, às vezes chamados de inteligência artificial, são sistemas que tomam algum tipo de decisão a partir de alguns objetivos definidos: ranquear um conteúdo, classificar uma pessoa ou mesmo transformar um tipo de conteúdo ou de imagem ou de mídia. O problema é: temos um histórico de séculos de violência racial e de discriminação. Então, por exemplo, se um sistema de IA [inteligência artificial] generativa, que faz uma foto aparentemente de forma automatizada, se baseia no histórico de fotos sobre pessoas negras no Brasil, vai haver uma representação muito negativa, relacionada à criminalidade, relacionada à violência, relacionada à pobreza”, explica o mestre em comunicação e cultura contemporâneas pela Universidade Federal da Bahia (UFBA) Tarcízio Silva.

Autor do livro “Racismo Algorítmico: Inteligência artificial e Discriminação nas Redes Digitais”, o pesquisador reflete nesse podcast sobre o que acontece quando as máquinas e programas apresentam resultados discriminatórios. No áudio, Silva comenta que é falsa a ideia de que tecnologias digitais seriam neutras.

“Quando a gente pensa a internet, que foi muito festejada como a infovia do conhecimento, de fato revolucionou como a gente circula conhecimento, mas ao mesmo tempo aumentou a insegurança sobre o que é verdade e o que não é verdade. E a desinformação passou cada vez mais a ser estratégica para alguns grupos que preferem que a desinformação circule para diferentes fins: ganhos políticos, financeiros etc.”, argumenta.

Um exemplo de racismo algorítmico é quando uma pessoa negra é representada de forma negativa no resultado da busca de imagens na internet ou a partir de ferramentas de inteligência artificial. A doutora em ciência política pela Universidade Federal de Minas Gerais (UFMG) e pesquisadora do Data Privacy Brasil Johanna Monagreda cita o caso da deputada estadual Renata Souza (Psol-RJ) que, em outubro de 2023, relatou ter passado por esse tipo de discriminação ao gerar uma imagem via inteligência artificial.

“Ela deu as instruções para o aplicativo: ‘Ah, eu quero que você faça a imagem de uma mulher negra com cabelo black na favela’. Ela descreveu a imagem que queria, e a inteligência artificial devolveu para ela a imagem de uma mulher negra com cabelo black na favela e incorporou uma arma na mão daquele desenho. Esse é um claro exemplo de racismo algorítmico, porque estereótipos sobre pessoas negras e sobre estar na favela ou a vida em comunidade acabaram sendo imbricados na tecnologia, de forma que, na produção dessa imagem, a própria tecnologia fez a relação que a humanidade faz, que é aquela relação de a favela como um território de violência”, explica Monagreda.

Os pesquisadores trazem também outros exemplos com consequências que podem ser ainda mais prejudiciais. “Como um aplicativo de transporte, que estabelece preços maiores para comunidades onde mais pessoas negras e pobres moram ou mesmo no caso do reconhecimento facial, que tem uma precisão inferior quando se pensa em pessoas não brancas de modo geral”, afirma Silva.

Monagreda comenta ainda o caso do torcedor do time de futebol Confiança, que, em 13 de abril de 2024, foi detido por agentes da polícia militar por erro de reconhecimento facial. A situação aconteceu na final do Campeonato Sergipano. “Ele foi identificado pela câmera de reconhecimento facial como uma pessoa em conflito com a lei, e ele teve que passar por uma abordagem policial, saiu do estádio algemado. Mas, além disso, ele teve um constrangimento público muito grande, porque foi num estádio, na frente de todo mundo”, argumenta a pesquisadora.

Após o episódio, foi suspenso o uso de reconhecimento facial no estádio durante os jogos do time sergipano. Silva acredita que situações assim fazem uma parcela das pessoas perceber a necessidade de ter um olhar mais crítico sobre o que é acessado online.

“Isso é importante, é positivo, em alguma medida. E se a gente conseguir transformar a educação para que cada vez mais, enquanto cidadãos, possamos desenvolver essas habilidades – pesquisar a veracidade de informações e interagir online –, podemos ter um futuro mais produtivo, justo e seguro para todos, conclui o pesquisador.

Crédito da imagem: VioletaStoimenova – Getty Images

  continue reading

357 tập

Minden epizód

×
 
Loading …

Chào mừng bạn đến với Player FM!

Player FM đang quét trang web để tìm các podcast chất lượng cao cho bạn thưởng thức ngay bây giờ. Đây là ứng dụng podcast tốt nhất và hoạt động trên Android, iPhone và web. Đăng ký để đồng bộ các theo dõi trên tất cả thiết bị.

 

Hướng dẫn sử dụng nhanh

Nghe chương trình này trong khi bạn khám phá
Nghe