Os algoritmos e as mídias sociais sob o viés das relações raciais | Entrevista com Tarcízio Silva
25/09/2019 - 12:30
As discussões em torno do avanço de tecnologias muitas vezes vão no sentido de entender como nossas vidas mudam com o advento de novos dispositivos ou com a popularização de uma rede social específica. A velocidade do desenvolvimento tecnológico torna mais difícil pensar como eram nossas vidas antes do surgimento do celular, e também como será o nosso cotidiano daqui a dois ou três anos.
Entretanto, são poucos os momentos em que paramos para pensar nas tecnologias como estão postas hoje. Em entrevista para o Itaú Cultural, o pesquisador Tarcízio Silva levantou pontos fundamentais que apontam a nossa relação com as tecnologias atuais, em especial, sob o viés racializado. Diante de uma popularização, é importante compreender como a inteligência artificial e o aprendizado de máquina estão sendo utilizados e quais são os seus impactos. Pensar em como os algoritmos de busca influenciam nossa navegação na web é essencial para que esses ambientes não reproduzam situações de opressão e violência. O entrevistado expõe um ponto-chave: os ambientes digitais também estão expostos aos problemas da nossa sociedade, ao contrário de uma suposta neutralidade.
Tarcízio Silva pesquisa e desenvolve métodos digitais na academia e no mercado. Mestre em comunicação pela Universidade Federal da Bahia (UFBA), atualmente realiza doutorado interdisciplinar em ciências humanas e sociais pela Universidade Federal do ABC (UFABC). Possui experiência profissional em agências e startups de tecnologia, incluindo o Instituto Brasileiro de Pesquisa e Análise de Dados (IBPAD). Leciona em cursos de especializações e coeditou livros como Monitoramento e Pesquisa em Mídias Sociais: Metodologias, Aplicações e Inovações (2016) e Estudando Cultura e Comunicação com Mídias Sociais (2018).
Quando discutimos tecnologia, é muito comum levar em consideração apenas os pontos positivos e os ganhos trazidos para o nosso cotidiano. No entanto, sua pesquisa tem apontado para outras perspectivas, por exemplo, a de um viés racializado, que tem a branquitude como padrão no aprendizado de máquina. Como você chegou a essas conclusões? Podemos dizer que as relações de poder da perspectiva racial se mantêm no universo tecnológico?
A tecnologia, como qualquer esfera da vida humana, tem seus pontos e abordagens positivos e negativos, a depender dos contextos históricos e sociais. Desde as revoluções industriais, discute-se se a tecnologia é inerentemente boa, má ou neutra. Nenhuma alternativa corresponde à verdade. Estão mais próximas de uma visão responsável as perspectivas que pensam em decisões “materializadas” nas tecnologias e os seus graus e possibilidades de reapropriação. O essencial para um mundo melhor e sustentável é, portanto, discutir, agir e politizar as tecnologias.
Muitas das ferramentas que conhecemos têm em seu histórico de antepassados outras tecnologias e práticas construídas para controle e medição de populações, por meio de aparatos estatais, coloniais ou genocidas. Cartografia, censos, estatística e a própria internet foram desenvolvidos com fins ligados à dominação populacional, comercial ou mesmo bélica. Desde então, são objetos de controvérsias e reapropriações que não deveriam ser discutidas apenas em ambientes corporativos ou acadêmicos.
Dos anos 1980 aos 2000, a internet e a web foram reapropriadas, por exemplo, para troca horizontalizada de valores, informação e conhecimento. Porém, nos últimos 15 anos, foram recolonizadas por um punhado de oligopólios que plataformizaram a web. Parte da sociedade e dos organismos internacionais – como a União Europeia – está trabalhando para entender esses impactos e agir por uma internet que seja efetivamente mais justa e que respeite a privacidade, a segurança e a liberdade dos indivíduos.
O essencial para um mundo melhor e sustentável é, portanto, discutir, agir e politizar as tecnologias.
Do ponto de vista racial, vemos uma discussão ainda inviável. Em parte porque quem se beneficia do racismo tenta jogar o debate para escanteio por má fé ou inocência. É importante lembrar que raça nunca foi biológica, mas sempre social – um mecanismo criado séculos atrás para justificar opressões, colonialismo e escravidão. E, apesar de não ser biológica, continua a ser usada para definir quem merece ou será alijado de privilégios econômicos, sociais ou políticos – inclusive os biopolíticos. Viver ou morrer e gerar comoção ou escárnio na morte é uma questão racializada ligada a interesses econômicos, o que o filósofo e teórico político camaronês Achille Mbembe chamou de “necropolítica”.
Quando falamos das plataformas de mídias sociais e inteligência artificial, objetos de minha pesquisa, vemos esses desdobramentos. O modo pelo qual algoritmos, agentes artificiais, interfaces e políticas de uso das plataformas são construídos prioriza uma visão da branquitude, representada por desenvolvedores de polos tecnológicos de grandes potências – como os EUA e seu Vale do Silício. Isso repercute na precisão de sistemas de recomendação de conteúdo, de anúncios, de reconhecimento facial e visão computacional, de processamento de linguagem e de dispositivos de vigilância e segurança digital.
Sua pesquisa toca em pontos que são pouco ou nada discutidos dentro dos espaços de tecnologia e inovação. Como tem sido a repercussão? Ela impacta o desenvolvimento de novas ferramentas?
A pesquisa faz parte de uma geração de projetos de investigação que tem observado essas questões em todo o mundo. Há pesquisadoras, desenvolvedoras e ativistas interrogando as tecnologias e criando modos de gerar impactos diretos ou indiretos. Entre os impactos diretos, temos a formação mais diversa de criadores de tecnologia e a interlocução com as empresas que a produzem – existindo o compromisso com a equidade, essas empresas podem superar seus próprios erros ao entender as análises múltiplas advindas de outros olhares. Essas reflexões e iniciativas também jogam luz sobre a falta de diversidade nas empresas de tecnologia, ajudando ativistas, legisladores e clientes a cobrarem por essa diversidade.
Na academia também cresce a percepção de que os projetos de pesquisa nas interfaces de comunicação e tecnologia devem ter um impacto social positivo. Isso advém, sobretudo, do aumento da diversidade entre corpos de pesquisadores nas universidades de ponta. Pessoas negras da África e de países afrodiaspóricos, mulheres e LGBTQ+, entre outras minorias sociais, talvez estejam com uma representação em áreas de estudo de comunicação, tecnologia e ciências como nunca houve antes.
Na academia também cresce a percepção de que os projetos de pesquisa nas interfaces de comunicação e tecnologia devem ter um impacto social positivo.
Posso citar como exemplo a área da visão computacional e o impacto de pesquisas em suas melhorias. Visão computacional – de forma bem simplificada – é um campo que engloba reconhecimento facial, reconhecimento de objetos e conceitos em imagens. Nos últimos cinco anos, grandes fornecedores de serviços cognitivos/IA lançaram seus sistemas, como IBM, Google, Amazon e Microsoft. Pesquisadoras como Joy Buolamwini e Timnit Gebru – desenvolvedoras afro-americanas – realizaram projetos que mostram as fragilidades e os erros dessas tecnologias. Por serem oferecidas no sistema de “assinatura” de serviços por meio de APIs, é possível testar e experimentar as ferramentas – e as duas pesquisadoras, sozinhas, conseguiram desenvolver um modelo melhor, em alguns aspectos, do que as líderes do mercado. Com a publicização dos erros, os fornecedores dessas tecnologias buscaram melhorar seus sistemas.
Recentemente, coidealizei um projeto (no Smart Data Sprint, da Universidade Nova de Lisboa) que investigou algumas dessas tecnologias e como elas podem – ou não – ser úteis para analisar representações de países em bancos de imagens. Descobrimos, por exemplo, que erram com frequência em aspectos culturais locais e sobre beleza e acessórios negros, o que pode ter impactos negativos na comunicação, no bem-estar psicológico e até mesmo no campo jurídico – uma vez que esses fornecedores também prestam serviços para dispositivos de vigilância. Projetos de “auditoria” como esses estão se popularizando e espero que, em breve, sejam numerosos o suficiente para criar massa crítica na sociedade e no Legislativo, a fim de que regulações adequadas sejam postas em prática.
Sua pesquisa também passa pelo estudo das redes sociais – inclusive, sua Linha do Tempo sobre Racismo Algorítmico é muito interessante nesse sentido. Nela você demonstra como as mídias sociais foram muitas vezes coniventes com práticas racistas, como é o caso das buscas por "garotas negras", e como os algoritmos escondem situações de genocídio ou violência policial. Diante disso, como avalia o impacto desse racismo algorítmico no uso das mídias sociais? E como, de outra perspectiva, o número de influenciadores digitais ligados ao movimento negro tem alterado esse cenário?
Entender as mídias sociais é muito importante para entender as relações econômicas e étnico-raciais na atualidade. Um conceito amplo de mídias sociais inclui também ambientes como wikis e blogs, que possuem potencial de diversificação e horizontalização da comunicação on-line. Inúmeros projetos de grupos minorizados utilizam essas tecnologias para fornecer informações e criar comunidades de apoio. Mas nenhuma tecnologia é determinística, depende de como ela evolui e é efetivamente usada e reapropriada. Atualmente, a extrema comercialização concentrada da web em poucas plataformas se choca com esse potencial. Algumas das melhores mentes da pesquisa estão dedicadas a esse problema e desafio. Tanto pesquisadores acadêmicos, como Deen Freelon, Zeynep Tufekci e Sérgio Amadeu, quanto consultores comerciais, como Scott Galloway, têm escrito sobre esse problema do ponto de vista macrossociológico e os chamados Grandes Cinco. Esses seriam os cinco grandes grupos que dominam os negócios digitais no Ocidente: Apple, Facebook, Alphabet (grupo da Google), Amazon e Microsoft. Juntos, eles concentram parte gigantesca do tempo, do dinheiro, dos dispositivos digitais e dos ambientes on-line.
As mídias sociais, os aplicativos mobile e os smartphones produzidos por essas empresas são tanto um local de representação – como o caso do racismo algorítmico sobre “garotas negras” denunciado por Safiya Noble – quanto um local de treinamento e coleta de dados dos sistemas para inteligência artificial e robótica. Os trilhões de pontos de dados criados diariamente pelos usuários dos sites, aplicativos e dispositivos dessas corporações lhes permitem ganhar a dianteira no aprendizado de máquina. Desse modo, pesquisas que expliquem o impacto possível de agentes artificiais são essenciais, pois boa parte dos casos de problemas de discriminação algorítmica não parece ser intencional, mas a reprodução intensificada de problemas que existem na sociedade. Entretanto, isso não isenta de responsabilidade essas empresas de tecnologia, pelo contrário, elas podem estar piorando alguns casos de extremismo.
Um caso de terrorismo pouco falado teve muito a ver com a circulação desregulada de desinformação. Em 2015, o terrorista Dylann Roof entrou em uma igreja em Charleston (EUA) e assassinou nove pessoas. Ao conferir o perfil do assassino, nada diferente do terrorista médio estadunidense: jovem adolescente branco de classe média com acesso fácil a armas e sociabilização problemática. O caso foi particularmente interessante por ser um dos alertas da organização de conteúdo em buscadores. Dylann contou que buscou termos como "black on white crimes" (crimes de negros contra brancos) no Google. Há inúmeras fake news com dados irreais sobre esse tipo de crime nos EUA e Dylann teve acesso imediato a várias dessas notícias em razão de problemas na recomendação de conteúdo no buscador. Seu racismo foi radicalizado pelo acesso à desinformação.
Nos últimos anos, pesquisadores e instituições diversas descobriram os problemas de algoritmos de recomendação de conteúdo. Mostraram que são falhos, levando a conteúdos cada vez mais extremos, no amplo sentido da palavra. Quando falamos de política ou violência, isso é um problema. Estudos recentes mostram que algoritmos de recomendação levam a vídeos extremistas sobre política – alguém interessado em política de direita, por exemplo, pode ser levado gradualmente a conteúdos de extrema direita e nazismo. Outros estudos mostraram como o sistema de recomendação do YouTube favoreceu a descoberta de vídeos de crianças por pedófilos.
Os influenciadores digitais engajados com esses temas sobre tecnologia e sociedade são essenciais. A capacidade de construir contranarrativas é primordial e as populações afrodiaspóricas sempre lutaram pela manutenção de suas próprias epistemologias, mesmo em contextos extremamente desfavoráveis. Da oralidade aos algoritmos, podemos falar de “tecnologias do resgate”, conceito de Kim Gallon para dar conta de iniciativas de defesa e difusão do conhecimento. Influenciadores/canais como os de Nátaly Neri, Muro Pequeno, Ale Santos e PH Côrtes são exemplos de conteúdos que trazem questões de sociologia, história, tecnologia, raça e gênero de um modo engajador e acessível, sem perder a profundidade crítica. Ultimamente, merece destaque especial o projeto e canal do YouTube Computação Sem Caô, de Ana Carolina da Hora, cientista da computação que traduz temas e questões da área para o público geral. É um dos muitos resultados do Olabi, o projeto talvez pioneiro da atual onda de democratização da tecnologia em uma época já algorítmica e cada vez mais complexa.
Diante de seus estudos e resultados, o quanto acredita ser importante considerar e debater ética no desenvolvimento de tecnologias?
Essencial. E isso passa por uma necessária interdisciplinaridade nas ciências e nos campos do saber e do fazer. Realizo minha pesquisa na UFABC por ser uma instituição que foi pensada desde a sua inauguração, em 2005, com a interdisciplinaridade como centro. Aspectos materiais da tecnologia não devem ser tema apenas das engenharias, nem ética, história e impacto social temas apenas das humanidades. Apenas a relação interdisciplinar entre os campos e da universidade com os outros espaços da sociedade pode garantir um futuro ao mesmo tempo inovador e justo em todo o mundo.
Apenas a relação interdisciplinar entre os campos e da universidade com os outros espaços da sociedade pode garantir um futuro ao mesmo tempo inovador e justo em todo o mundo.
O debate sobre as tecnologias, seus impactos sociais e sua relação com esferas econômicas e produtivas deve envolver a sociedade em todos os seus sentidos. Estado, governos, Legislativo, Terceiro Setor e cidadãos são consumidores e produtores de tecnologias, e, portanto, o máximo de transparência responsável sobre os sistemas e dispositivos deve ser desejado.