Ce diaporama a bien été signalé.
Nous utilisons votre profil LinkedIn et vos données d’activité pour vous proposer des publicités personnalisées et pertinentes. Vous pouvez changer vos préférences de publicités à tout moment.

Abrindo as caixas-pretas: reações à (des)inteligência artificial

Slideshow apresentado no debate “Ser humano: que ficção é essa?” componente do projeto "Enquanto Somos Humanos" de Michelle Moura e Maicon K.

Livres associés

Gratuit avec un essai de 30 jours de Scribd

Tout voir
  • Soyez le premier à commenter

Abrindo as caixas-pretas: reações à (des)inteligência artificial

  1. 1. Abrindo as caixas-pretas: reações à (des)inteligência artificial Tarcízio Silva
  2. 2. Tarcízio Silva • Doutorando em Ciências Humanas e Sociais pela UFABC • Curador e pesquisador da Desvelar – Conhecimento Afrodiaspórico • Mestre em Comunicação pela UFBA • Sócio e Editor no Instituto Brasileiro de Pesquisa e Análise de Dados • Co-organizador de livros como “Estudando Cultura e Comunicação com Mídias Sociais” (Editora IBPAD, 2018); “Monitoramento e Pesquisa em Mídias Sociais: metodologias, aplicações e inovações” (Uva Limão, 2016); e “Para Entender o Monitoramento de Mídias Sociais (Bookess, 2012). tarciziosilva.com.br
  3. 3. Ecossistema digital e o “big five” (VAN DIJCK, POELL & DE WALL, 2018)
  4. 4. Capitalismo de Plataforma Plataformas de Publicidade Plataformas de Nuvem Plataformas de Produto e “Lean” Plataformas Self/Afetivas Plataformas Industriais Nick Srnicek
  5. 5. Plataformização da Web e sociedade O sistema de plataformas é baseado em paradoxos entre práticas e discursos. Vende- se como igualitário, mas é hierárquico. É altamente corporativo, mas aparente servir aos valores públicos. Parece neutro e agnóstico, mas seu desenho carrega um conjunto de valores. Parece substituir a direção “top down” de governos e estado, mas a substitui com estrutura centralizada e mais opaca ainda a seus usuários Djick, Poell & De Wall, 2018 “Paradoxos” egualitário x hierárquico corporações x valor público neutro x valores ideológicos local x global top-down x bottom-up abertura x opacidade
  6. 6. Plataformas e a redistribuição de métodos https://www.nature.com/articles/nature11421 Facebook gerou 340 mil votos a mais nas eleições de 2012 apenas com um pequeno ajuste de interface
  7. 7. Plataformas e a redistribuição de métodos Em experimento de 2013, o Facebook realizou experimento de contágio social com 689 mil usuários Provou que é possível, com pequenos ajustes na entrega de conteúdo, influenciar Positividade e Negatividade emocional bit.ly/10coisasfb
  8. 8. Plataformas de Publicidade No cenário crescentemente dominado pelas plataformas digitais e seus algoritmos surge uma exigência democrática. Tão importante quanto a liberdade de expressão é a liberdade de visualização. Todas as pessoas têm o direito de ver, ler e ouvir conteúdos políticos sem que sejam filtrados por algoritmos cujos critérios e parâmetros de operação são ocultados ou ofuscados pelas plataformas onde ocorrem os debates públicos. Sérgio Amadeu
  9. 9. A metáfora da caixa preta em estudos de tecnologia e sociedade
  10. 10. Um chatbot inteligente... O caso da Tay da Microsoft é um dos mais famosos. Lançado em 2016, foi uma persona no Twitter que a empresa buscou usar para mostrar o suposto potencial de um chatbot.
  11. 11. Um chatbot inteligente... desenvolvedores menos ainda
  12. 12. Análise de risco de reincidência criminal
  13. 13. Análise de risco de reincidência criminal https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
  14. 14. Análise de risco de reincidência criminal https://www.propublica.org/article/machine-bias-risk- assessments-in-criminal-sentencing O Procurador Geral Eric Holder declarou que “Apesar de que estas medidas são criadas com as melhores intenções, estou preocupado como elas inadvertidamente minam nossos esforços para garantir justiça individualizada e igualitária”, além de que “podem exacerbar disparidades injustificadas que já são muito comuns em nossos sistema criminal e sociedade” RéusnegrosRéusbrancos
  15. 15. Reconhecimento facial e invisibilidade
  16. 16. Visualidades e buscadores: hyper-visibilidade e invisibilidade A hipersexualização e hiper-visibilidade de garotas negras como objetos sexuais torna outros tipos de representações de garotas negras não- existentes Safiya Noble
  17. 17. Technochauvinismo Technochauvinismo é a crença de que “mais tecnologia” é sempre a solução. Geralmente vem acompanhada por crenças como meritocracia a la Ayn Rand; valores tecnolibertários; e a noção de que computadores são mais "objetivos" ou "sem viés" porque eles transformam questões e respostas em avaliação matemática; e uma fé inabalável que o mundo poderia ser melhor se tivéssemos mais e mais computadores, uma utopia digital. Meredith Broussard
  18. 18. Como combater tecnochauvinismo, discriminação algorítmica e usos nocivos da IA? Imagem
  19. 19. Injustiça é multifacetada e não tem apenas uma única fonte ou solução. É necessário uma virada reflexiva no debate sobre discriminação baseada em dados. O QUÊ? QUEM COMO Seeta Peña Gangadharan & Jędrzej Niklas
  20. 20. Papers propondo novos modelos ! Papers estudando modelos existentes ! (Epstein, 2018) Uma melhor compreensão de aittudes sobre e interações com algoritmos é essencial justamente por causa da aura de objetividade e infalibilidade que a cultura atual associa aos algoritmos. Osonde Osoba Gap no conhecimento sobre AI
  21. 21. Auditoria de Código / Datasets gendershades.org
  22. 22. Auditoria de Código / Datasets gendershades.org
  23. 23. Auditoria de Código gendershades.org
  24. 24. https://www.revealnews.org/article/heres -the-clearest-picture-of-silicon-valleys- diversity-yet Quem produz os algoritmos e plataformas?
  25. 25. https://www.revealnews.org/article/heres -the-clearest-picture-of-silicon-valleys- diversity-yet “Na medida que o mundo é cada vez mais visto através de medições formais que são geradas por algoritmos e negociadas por várias comunidades, premissas e práticas daqueles em posições analíticas (incluindo usuários que trabalham para entender seu próprio valor) tornam-se um importante recurso para entender sistemas sociotécnicos” (CARTER, 2016)
  26. 26. Pressão de funcionários
  27. 27. Pressão da sociedade civil
  28. 28. Pressão da sociedade civil
  29. 29. Arte Projeto de Dima Yarovinsky para mostrar o tamanho dos "Termos de Serviço" das principais plataformas de mídias sociais.
  30. 30. Arte CV Dazzle HyperFace
  31. 31. Literacia midiática e computacional
  32. 32. Literacia midiática e computacional
  33. 33. Instituições, legislativo e regulação “Em casos nos quais o uso de sistemas de aprendizado de máquina tem um potencial de impacto em direitos humanos, as empresas devem buscar auditoria independente dos algoritmos baseadas em padrões acorado pela indústria e framework de direitos humanos. Empresas usando aprendizado de máquina devem checar- com humanos - continuamente para identificar e consertar quaisquer vieses nos sistemas”. Lei Geral de Proteção aos Dados
  34. 34. Instituições, legislativo e regulação A governança algorítmica tende a ser cada vez mais presente – comunicadores e cientistas sociais devem mergulhar na temática para agir junto a desenvolvedores e legisladores pra analisar: • Danos individuais • Discriminação ilegal e práticas injustas • Perda de oportunidades • Perdas econômicas • Estigmatização social
  35. 35. Sistemas abertos, open source, midialivrismo ”But for all the good we've achieved, the web has evolved into an engine of inequity and division; swayed by powerful forces who use it for their own agendas“ – Tim Berners-Lee
  36. 36. As coisas são tem e fazem políticas Racismo algorítmico Maconha e encarceramento Pílulas anti-concepcionais e políticas de gênero Pontes, urbanismo e segregação
  37. 37. Referências BROUSSARD, Meredith. Artificial unintelligence: how computers misunderstand the world. MIT Press, 2018. BUOLAMWINI, Joy; GEBRU, Timnit. Gender shades: Intersectional accuracy disparities in commercial gender classification. In: Conference on Fairness, Accountability and Transparency. 2018. p. 77-91. EPSTEIN, Ziv et al. Closing the AI Knowledge Gap. arXiv preprint arXiv:1803.07233, 2018. ESLAMI, Motahhare et al. I always assumed that I wasn't really that close to [her]: Reasoning about Invisible Algorithms in News Feeds. In: Proceedings of the 33rd annual ACM conference on human factors in computing systems. ACM, 2015. p. 153-162. GANGADHARAN, Seeta Peña; NIKLAS, Jędrzej. Decentering technology in discourse on discrimination. Information, Communication & Society, v. 22, n. 7, p. 882-899, 2019. NAPOLI, Philip; CAPLAN, Robyn. Why media companies insist they're not media companies, why they're wrong, and why it matters. First Monday, v. 22, n. 5, 2017. NOBLE, Safiya Umoja. Google search: Hyper-visibility as a means of rendering black women and girls invisible. InVisible Culture, n. 19, 2013. OSOBA, Osonde A.; WELSER IV, William. An intelligence in our image: The risks of bias and errors in artificial intelligence. Rand Corporation, 2017. RIEDER, Bernhard; MATAMOROS-FERNÁNDEZ, Ariadna; COROMINA, Òscar. From ranking algorithms to ‘ranking cultures’ Investigating the modulation of visibility in YouTube search results. Convergence, v. 24, n. 1, p. 50-68, 2018. SANDVIG, Christian et al. Auditing algorithms: Research methods for detecting discrimination on internet platforms. Data and discrimination: converting critical concerns into productive inquiry, p. 1-23, 2014. SILVEIRA, Sérgio. Democracia e os códigos invisíveis: Como os algoritmos estão modulando comportamentos e escolhas políticas. Edições SESCP SP, 2019. SRNICEK, Nick. Platform capitalism. John Wiley & Sons, 2017.

×