‘Políticas da imagem’: o papel das mídias na contemporaneidade


O ‘Nexo’ publica trecho de livro que analisa como a função imagética se relaciona às tensões do debate público. Em seis ensaios, a autora trata de temas como redes sociais, sistemas de escaneamento de corpos e censura digital

O Nexo é um jornal independente sem publicidade financiado por assinaturas. A maior parte dos nossos conteúdos são exclusivos para assinantes. Aproveite para experimentar o jornal digital mais premiado do Brasil. Conheça nossos planos. Junte-se ao Nexo!

Diferentemente das formas analógicas de registro fotográfico, as digitais são per se relacionais. Carregam consigo não só as informações do dispositivo, localização e horário de quem fotografou, como também permitem rastrear quem está à nossa volta. Ou você nunca se surpreendeu com o Facebook marcando suas imagens e perguntando quem são aquelas pessoas? Ou com o Google Photos, quando identifica seu filho desde a mais tenra idade nos seus álbuns e no dos seus amigos?

Não me espanta que incorporemos essas funcionalidades sem estranhamento e com muita rapidez. A cultura da vigilância está a tal ponto introjetada no nosso cotidiano que não nos intimida usar um vocabulário tão policialesco como “seguir” e “ser seguido” nas redes sociais. Outros indícios dessa diluição dos parâmetros de controle e vigilância no cotidiano são o farto uso de recursos de reconhecimento facial em aplicativos, como o Facebook, que o usa desde 2010, e para a composição de short videos, como o TikTok.

O que essas empresas concorrentes entre si têm em comum? Tecnologias de inteligência artificial, que também são usadas em sistemas de reconhecimento facial e por multidões de usuários no mundo todo. A produção imagética que nelas circula aponta para novas estéticas e novos formatos? Sim. Aponta para um novo capítulo da história do audiovisual, com potências sem precedentes para criar um vocabulário inédito de comunicação e produção de linguagens? Sim, outra vez.

Contudo, nos seus meandros, implicam também um inequívoco processo de naturalização da vigilância. Não somente pela diluição de suas tecnologias no uso corriqueiro. Mas, acima

de tudo, porque o princípio básico de melhoria dos recursos de inteligência artificial reside na sofisticação do aprendizado maquínico. Isso depende de datasets mais robustos, capazes de treinar máquinas para reconhecer os padrões com maior fidelidade. Conjuntos de dados, no entanto, não são tão artificiais assim, não brotam por geração espontânea em computadores. São as crias qualificadas do Big Data nosso de cada dia, fornecidos por nós nas ruas, nos aeroportos, nos cafés e, cada vez mais, nas redes, onde compartilhamos nossas imagens.

Essa situação nos põe diante do mais desconcertante paradoxo da política das imagens na contemporaneidade: somos vistos (supervisionados) a partir daquilo que vemos (as imagens que produzimos e os lugares em que estamos). Ou seja: os grandes olhos que nos monitoram veem pelos nossos olhos. É isso que diferencia a vigilância atual do sistema panóptico, que foi sua metáfora mais contundente até a explosão da sociedade de controle em que vivemos hoje.

Sociedade de controle é um conceito do filósofo francês Gilles Deleuze (1925–95), apresentado no seu livro Conversações, em um pequeno ensaio, à guisa de um postscriptum. Deleuze discute nele a emergência de uma forma de vigilância distribuída, que relativiza o modelo de controle panóptico, conceituado por Michel Foucault. A esse sistema, que vai encontrar seu símbolo mais bem-acabado no Big Brother orwelliano, vigiando todos sem ser vigiado, superpõem-se processos de rastreamento que operam a partir de um mundo invisível de códigos, de senhas, de fluxos de dados migrantes entre bases computadorizadas.

Controlados por algumas poucas corporações de tecnologia, esses processos distribuem-se capilarmente no tecido social. Alguns teóricos, como Arlindo Machado e Timothy Druckrey, entendem esse quadro como neopanóptico, haja vista a assimetria de poder entre a capacidade das grandes corporações, que tudo enxergam, e a nossa para compreender como nos veem e o que fazem com os dados coletados.

Prefiro, no entanto, entender o modelo de vigilância algorítmica como um novo modelo de vigilância, cuja ênfase recai na relação entre os indivíduos, em detrimento do controle cen-

tralizado sobre todos do panóptico do jurista inglês Jeremy Bentham (1748–1832).31 Nessa situação, todos controlam todos, a partir das interações pessoais, e o rastreamento passa a depender da extroversão da intimidade pessoal do sujeito em rede. Isso porque é essa intimidade o “surplus comportamental” com que as corporações, como Google e Facebook, trabalham, dando concretude ao “capitalismo de vigilância”, como denominou a economista Shoshana Zuboff.

Seus pilares são a extração e a análise de dados, os quais fundamentam o principal ativo dessa economia: a capacidade de prever as ações do usuário. Um complexo e sofisticado sistema de inteligência artificial é mobilizado, a fim de que seja possível – via oferecimento de recursos de tradução, serviços de armazenamento, comando de voz, mapas e buscas de imagens – inferir, presumir e deduzir o potencial de consumo, endereçando os produtos de forma personalizada aos usuários, de modo a remunerar seus verdadeiros clientes: os anunciantes. Esse processo remete ao que os pesquisadores Nick Couldry e Ulises Mejias denominaram datacolonialismo, no qual a acumulação de capital é decorrente do extrativismo de dados, e não da produção.

O que os psicanalistas chamam de exibicionismo é decisivo para a eficiência desse sistema de vigilância algorítmica que alicerça a economia digital. Ele se retroalimenta da dinâmica das “gramáticas do reconhecimento”, cujas normas dependem da instabilidade entre “estou, neste momento, sendo isso, mas quero garantir para mim mesmo e para os que me cercam que amanhã, ou, digamos, daqui a duas horas, posso ser outra coisa”, bastando, para tanto, alterar meu perfil, e os atos falhos por onde escorrem os momentos de autenticidade.

Quando a economia e a vigilância passam a nutrir-se das formas como queremos ser vistos, todo um rearranjo da subjetividade se instaura. “Se a modernidade produziu uma topologia da subjetividade e do cotidiano que circunscrevia o espaço privado e seus diversos níveis de vida interior – casa, família, intimidade, psiquismo –”, diz a pesquisadora Fernanda Bruno, “a atualidade inverte esta topologia e volta a subjetividade para o espaço aberto dos meios de comunicação e seus diversos níveis de vida exterior – tela, imagem, interface, interatividade”. Dessa forma, a lógica da vigilância passa a operar segundo um novo paradigma. A ameaça não é mais a de sermos capturados por um olho onipresente do tipo Big Brother. Mas o reverso, o medo de não sermos visíveis e desaparecermos.

Por depender intrinsecamente da relação interpessoal que se projeta nas diferentes redes sociais, não é de estranhar que a vigilância tenha se convertido no horizonte estético da cultura urbana contemporânea. O sucesso e a multiplicação de programas como o Big Brother é uma citação comum desse regime fundado no “litoral entre espaço público e privado” onde são colocadas “pessoas reais para representar a si mesmas”. Mas tomemos esse sucesso aqui mais como sintoma da era da vigilância distribuída do que seu cerne. Se podemos falar em uma estética da vigilância, é porque seus dispositivos constituem linguagens, retóricas visuais e formatos de expressão artística.

Isso quer dizer que, apesar de ser possível recuperar uma linhagem de obras em que o público foi alçado ao papel de vigilante, é apenas mais recentemente, com a presença massiva de recursos de visão computacional, imagens de drones e câmeras térmicas no cotidiano, que esses elementos se tornam dominantes na produção cultural e na vida social. A vigilância deixa de ser um modo de fazer “televisão-verdade”, mostrando um observador que poderia se tornar observado, do tipo do lendário An American Family (1972), confundindo-se com a estrutura narrativa.

A vigilância passa a modelar um gênero, o do “cinema do tempo real”, patente em produções como O show de Truman (1998). Antecipando o sucesso dos reality shows, o filme mostrava um personagem, o vendedor de seguros Truman Burbank (interpretado por Jim Carrey), que não sabia que sua vida estava sendo transmitida pela televisão. Mais do que transmitida, sua vida era roteirizada e mediada por um aparato de câmaras e figurantes. Com tons de ficção científica para a época, a vida de Truman Burbank tornou-se um fenômeno comum. Mudaram, no entanto, os roteiristas do enredo, hoje dominado pelos algoritmos que ignoramos e que determinam nossas audiências e o que veremos nas redes sociais.

Giselle Beiguelman é artista e professora livre-docente da FAU-USP (Faculdade de Arquitetura e Urbanismo da Universidade de São Paulo). Graduou-se em história na USP e doutorou-se em história social pela mesma instituição. É autora de obras sobre cultura digital, como “Memória da amnésia: políticas do esquecimento” (Edições Sesc, 2019) e “Coronavida: pandemia, cidade e cultura urbana” (Escola da Cidade, 2020). Promove intervenções artísticas no espaço público e com mídias digitais. Foi editora-chefe da revista Select de 2011 a 2014 e é colunista da Rádio USP e da revista Zum.

Capa do livro "Políticas da imagem", com fundo branco e tipologia em azul, rosa, vermelho e cinza

Políticas da imagem: vigilância e resistência na dadosfera

Giselle Beiguelman

Ubu

224 páginas

Lançamento em 27 de julho

Todos os conteúdos publicados no Nexo têm assinatura de seus autores. Para saber mais sobre eles e o processo de edição dos conteúdos do jornal, consulte as páginas Nossa equipe e Padrões editoriais. Percebeu um erro no conteúdo? Entre em contato. O Nexo faz parte do Trust Project.