Foco

Verdade Despedaçada

Sinan Aral
7 de dezembro de 2018
fake-news-a-verdade-despedaçada

Em março de 2018, a alegação do presidente Trump pelo Twitter de que a Amazon paga “pouco ou nenhum imposto aos governos estaduais e municipais” levou as ações da empresa para seu pior nível do mês em dois anos. Os fatos de Trump estavam errados — e o valor das ações vem se recuperando desde então —, mas o incidente destaca um problema inquietante: as empresas estão extremamente vulneráveis às informações enganosas que se espalham pelas mídias sociais.

Leia também:

Consumidores são muito crédulos em relação a informações não divulgadas

Como podemos combater a informação enganosa

Previsivelmente, a mídia tradicional focou basicamente em se notícias falsas afetaram as eleições presidenciais americanas em 2016. Mas a verdade é que ninguém está a salvo desse tipo de dano. Disseminar notícias falsas têm implicações em nossa democracia, economia, negócios e até na segurança nacional. Precisamos fazer um esforço concentrado para entender e impedir essa disseminação.

Nos últimos três anos, Soroush Vosoughi, De Roy e eu estudamos a disseminação de notícias falsas online. (Os autores preferem utilizar o termo “false news” — notícia falsa — porque, segundo eles, “fake news” tornou-se muito polarizador: os políticos estão utilizando o termo fake news para descrever notícias que não apoiam suas posições.) Os dados que coletamos num estudo recente abrangeu toda a história do Twitter desde seu início em 2006 até 2017. Coletamos 126 mil cascatas de tuítes (cadeias de retuítes com uma origem comum) que circularam pela esfera do Twitter nesse período e verificamos a veracidade ou falsidade do conteúdo espalhado. Depois comparamos a dinâmica de propagação das notícias verdadeiras versus falsas, online. Em 9 de março, a revista Science publicou os resultados de nossa pesquisa em sua matéria de capa.

O que descobrimos foi não só surpreendente, mas também perturbador. As notícias falsas se propagavam mais longe, rápido, fundo e amplamente que as notícias verdadeiras em todas as categorias de informação e as notícias políticas falsas se propagavam ainda mais longe, rápido, fundo e amplamente que qualquer outra categoria.

Não é exagero reiterar a importância de entender esse fenômeno. E, com toda a certeza, o problema se tornará ainda pior, porque a tecnologia para manipulação de vídeo e áudio está melhorando, tornando as distorções da realidade mais convincentes e mais difíceis de detectar. A boa notícia, no entanto, é que pesquisadores, experts em IA e as próprias plataformas de mídias sociais estão estudando em profundidade a natureza do problema e as potenciais soluções.

No artigo examinaremos como conter a disseminação de notícias falsas. Uma luta bem-sucedida exigirá quatro abordagens inter-relacionadas — ensinar as pessoas envolvidas, mudar seus incentivos, melhorar as ferramentas tecnológicas e (a quantidade certa de) a vigilância governamental — e respostas a cinco perguntas decisivas:

– Como ensinar as pessoas a identificar e resistir à falsidade?

– Como desestimular a disseminação de falsidades e incentivar a divulgação de comunicação bem-intencionada e a propagação da verdade?

– Como ferramentas tecnológicas — algoritmos, em particular — podem ser usadas para conter a informação falsa?

– Como agentes reguladores podem intervir adequadamente sem destruir o valor econômico e social gerado pelas mídias sociais?

– E talvez o aspecto mais importante: a quem cabe definir o que é verdadeiro e o que é falso?

Mas, antes de encontrar uma solução, vamos analisar melhor por que devemos nos preocupar com este assunto.

Por que notícias falsas são perigosas?

As pessoas vêm contando mentiras e espalhando boatos desde os primeiros registros históricos — provavelmente desde os tempos em que aprenderam a
falar umas com as outras. Mas hoje as coisas são muito diferentes. As mídias sociais, que aumentam a velocidade e a amplitude com a qual a informação se propaga, tornaram-se extraordinariamente poderosas num período muito curto. A Twitter, fundada em 2006, tem 336 milhões de usuários ativos no mundo todo, e a Facebook, fundada em 2004, engloba 2,19 bilhões de usuários. Essas plataformas tornaram-se a principal fonte de notícias para muitas pessoas.

Mas pelo fato de, até o momento, elas terem feito uma escolha consciente de não checar a qualidade do conteúdo que distribuem, em princípio não existe salvaguarda quando se trata de verdades ou mentiras online.

O fato de a informação falsa se espalhar com tanta facilidade pelas plataformas de mídias sociais não é só um transtorno obviamente. Pode ser também perigoso e oneroso. É claro que notícias falsas ameaçam a integridade de nossas eleições e democracias. Com as acusações de Robert Mueller relacionadas à Rússia, ainda frescas em nossa mente, foi assustador assistir ao vídeo secreto de Alexander Nix, ex-CEO da Cambridge Analytica, descrevendo como sua empresa utilizou narrativas fabricadas, propagadas online, para influenciar eleições globais. Ainda não há uma conclusão sobre até que ponto as notícias falsas afetaram as eleições presidenciais nos EUA e eleições na Europa e na África. Mas a maioria dos especialistas concorda: a disseminação de falsidade online é séria preocupação no processo democrático.

Notícias falsas podem levar à alocação inadequada de recursos quando o cumprimento da lei e os primeiros a responder confiam, mesmo em parte, nas mídias sociais para obter informação durante um ataque terrorista. A informação enganosa corria livremente na época da bomba acionada durante a maratona de Boston, por exemplo, quando o campus do MIT — que Soroush, Deb e eu chamamos de nossa casa profissional — foi isolado enquanto o local do ato terrorista continuava a ser investigado.

A informação era escassa e não sabíamos que partes do campus eram seguras. Começamos a acessar o Twitter para atualizações. Descobrimos que, além das últimas notícias verdadeiras, que estavam mais atualizadas que as transmitidas por qualquer emissora de TV, uma série de informações falsas se espalhava, desorientando as investigações da polícia. Se os terroristas sabem que a investigação policial depende das mídias sociais, eles podem utilizá-las para frustrar as ações policiais proativamente. Quando as mídias sociais são uma fonte de informação, contaminá-las pode se tornar uma arma.

A informação enganosa afeta nossa economia, nossos investimentos e o valor das empresas. Em 2014, um tuíte falso alegando que Barack Obama tinha sido ferido numa explosão tirou US$ 130 bilhões em valor patrimonial de acionistas e empresas num só dia. Os fundos de investimentos modernos utilizam opiniões das mídias sociais para informar seus algoritmos sobre as práticas comerciais. Quando notícias falsas se infiltram nessas mídias, esses negociantes automatizados consomem e fazem negócios com base nessa informação. Ninguém mediu seriamente as perdas geradas pela comercialização algorítmica baseada em notícias falsas, mas exemplos informais indicam que o impacto das mídias sociais na economia pode ser grande.

A informação falsa, em princípio, pode distorcer qualquer aspecto da gestão de uma empresa: ela pode desalinhar investimentos, reduzir lucros, distorcer previsões de demanda, modelos de gestão de estoques e planejamento. E prejudicar a reputação de empresas (e com ela seu valor de mercado). Os tuítes do presidente Trump sobre a Amazon são só um exemplo de afirmações falsas que podem prejudicar uma organização. O site de checagem de fatos Snopes mantém uma lista com 50 boatos “quentes” que é atualizada com regularidade alarmante. Ela inclui um boato de 2008, quando a United Airlines entrou com pedido de falência; um relato de 2017 segundo o qual a Starbucks ofereceria frapuccinos para trabalhadores sem documentação legal; e outro relato de 2017 com a alegação de que Indra Nooyi, CEO da PepsiCo, tinha dito aos apoiadores do recém-eleito presidente dos EUA que pretendia “levar sua empresa para qualquer outro lugar”. Como acontece com a comercialização algorítmica, não dispomos de estimativas sólidas sobre os prejuízos que a informação enganosa causa às empresas individualmente. Mas a frequência desses eventos sugere que se trata de um problema real e contínuo.


Por que as notícias falsas se espalham?

Algumas descobertas de nossa pesquisa colocam em dúvida explicações, aparentemente óbvias, sobre por que as notícias falsas se propagam tão rápida e indiscriminadamente. Por exemplo, seria de supor que fortes atacantes das mídias sociais estariam por trás da disseminação bem-sucedida de notícias falsas, mas nossos dados mostram o contrário. As pessoas que espalhavam notícias falsas geralmente eram significativamente menos conectadas que as que espalham notícias verdadeiras — tinham menos seguidores, elas mesmas seguiam menos pessoas, eram menos ativas no Twitter, eram “checadas” com menos frequência e ficavam tuitando por períodos mais curtos. Tudo isso sugeriu que o que é falso vai mais longe e mais rápido, apesar das diferenças entre os dois grupos, e não por causa deles.

Talvez você imagine, ao ler notícias nos jornais (e testemunhos de congressistas), que robôs são o principal fator que estimula a difusão de informação falsa. Mas de acordo com nossos dados, os robôs aceleram a disseminação de notícias falsas e verdadeiras com aproximadamente a mesma velocidade — isso indica que as notícias falsas se espalham mais rápido porque a probabilidade de as pessoas as divulgarem é maior.


A tecnologia para manipular vídeo e áudio está melhorando, tornando as distorções da realidade mais convincentes e mais difíceis de detectar.

A suscetibilidade das pessoas à falsidade podeser mais bem explicada pela chamada hipótese da
novidade. De acordo com essa teoria, a novidade atrai a atenção e encoraja o compartilhamento transferin-do status às pessoas aparentemente mais bem informadas. Em nosso estudo, as notícias falsas foram, realmente, mais a novidade que a verdade, e havia uma probabilidade maior de as pessoas compartilharem novas informações. (Entenda “novidade” como “diferente do que o usuário do Twitter está acostumado a ver”.) Falsos boatos também inspiravam maiores surpresas e repugnância nas respostas, enquanto a verdade inspirava maior expectativa, alegria e confiança. As pessoas podem simplesmente estar mais predispostas a compartilhar notícias escandalosas surpreendentes.

O combate às notícias falsas

Uma forma ampla de combater notícias falsas online é considerar a perspectiva do consumidor. Uma abordagem do lado da demanda pode, por exemplo, tentar instruir o consumidor a fornecê-las com informação sobre a qualidade de uma reportagem ou de um tuíte. Uma abordagem do lado da oferta atacaria o problema na fonte — por exemplo, desestimulando as mídias sociais e os provedores de conteúdo a publicar e espalhar notícias falsas. As duas abordagens são complementares, e as duas seriam fundamentais. Os algoritmos seriam indubitavelmente cruciais na execução de uma ou de outra. Além disso, os governos precisariam descobrir como poderiam desempenhar um papel adequado — não destrutivo — de fiscalização.

Proteja e instrua os consumidores. Suponha que pudéssemos avaliar e divulgar a precisão da informação e as notícias disponíveis nas mídias sociais rotulando-as. Já fazemos isso com os alimentos. Na maioria dos países, os alimentos embalados são detalhadamente rotulados — sabemos quantas calorias contêm quantos gramas de açúcar, proteína e gordura trans possuem. Até sabemos se é produto orgânico ou de criação livre, se foi produzido numa fábrica que também processa trigo ou amendoim. (Esta informação nem sempre esteve tão facilmente disponível. Agora está, porque os consumidores se mobilizaram e, em resposta, os governos regulamentam e fiscalizam.)

Mas quando consumimos notícias — sobretudo online —, dispomos de muito menos informação. Não sabemos se a fonte tende a disseminar informação falsa ou verdadeira. Não sabemos se determinada narrativa é falsa ou verdadeira. Também não sabemos como as notícias são produzidas — se o editor consulta três fontes independentes antes de divulgar um fato, ou apenas uma. Não sabemos quantos repórteres trabalharam na reportagem, quantas entrevistas foram realizadas ou por quanto tempo investigaram.

Esse é um caminho importante a seguir, mas suscita várias questões que não são fáceis de responder:

Sabemos como identificar com precisão as notícias falsas? Em nossa pesquisa utilizamos cascatas do Twitter cuja veracidade havia sido checada por seis organizações independentes, encarregadas de checar fatos. Depois usamos os serviços de alunos do MIT e do Wellesley College para checar vieses sobre como os verificadores de fatos tinham escolhido as cascatas.

Obviamente, seria difícil ampliar esse processo. Por isso, construir algoritmos capazes de prever a veracidade de conteúdos de forma mais eficiente será crítico. Em sua tese de doutorado no MIT, que Deb Roy orientou e eu acompanhei, Soroush Vosoughi desenvolveu um dos primeiros algoritmos para detectar automaticamente e prever a veracidade de boatos espalhados no Twitter em tempo real. O classificador utiliza aspectos semânticos e sintáticos para identificar boatos em tempo real, com 91% de precisão, e prevê a veracidade desses boatos em tempo real com 75% de acerto utilizando seu estilo linguístico, as características das pessoas envolvidas em propagá-los e a dinâmica da propagação. Eu já encontrei pesquisas mais novas nessa área que também parecem promissoras. Mas estamos longe de ter uma metodologia de consenso geral para identificar notícias falsas.

Quem decide o que é verdadeiro e o que é falso? Esta é uma questão importantíssima — mas ainda sem uma resposta clara. Deveríamos deixar isso para as plataformas como Facebook e Twitter? Os reguladores deveriam decidir? Deveríamos confiar em organizações de checagem de fatos como as que analisamos em nossa pesquisa? Formar algum tipo de comissão independente? Parece impossível garantir que os verificadores de fatos e as comissões não são politizados. Ainda serão necessários muito mais debates — e pesquisa — antes de termos boas respostas.

Em resposta às pressões sobre a questão, a Facebook anunciou recentemente que vai adicionar
um botão “sobre este artigo”, às novas postagens em seu site. O botão levará a mais informações,
incluindo artigos relacionados ao tópico, fatos recentemente postados pelo mesmo editor e um
link para a página do editor na Wikipedia. Isso pode ser um movimento na direção certa, mas precisamos de mais que isso.

A informação falsa pode desalinhar investimentos, reduzir lucros, distorcer previsões de demanda, modelos de gestão de estoques e planejamento.

Uma rotulagem precisa desaceleraria a disseminação de notícias falsas? A evidência científica sobre a eficácia da rotulagem atualmente é inconclusiva. Algumas pesquisas mostram que rotular notícias falsas diminui a proliferação de informação enganosa. Outras pesquisas mostram que rotular, na verdade, aumenta a disseminação. Poucos são os trabalhos publicados ou submetidos a revisão por pares nessa área. Por isso, precisamos de experimentos para aprender como os rótulos podem limitar mais eficientemente a proliferação de notícias falsas. Por exemplo, será que um “score da veracidade” funcionaria melhor que um link para a página do editor na Wikipedia?

Mude os incentivos para os criadores de conteúdo, anunciantes e empresas de mídias sociais. O ecossistema de publicidade nas mídias sociais depende da disseminação de conteúdo. Quanto mais atraente é o conteúdo, mais valor ele cria e mais receita em publicidade capta. Por isso, em certo sentido, os modelos de negócio de publicidade digital atuais incentivam a propagação de notícias falsas — porque, como vimos, a informação enganosa se propaga mais rápido, vai mais longe, mais fundo e se difunde mais generalizadamente que as notícias verdadeiras. Tem sido amplamente divulgado que a produção de notícias falsas na Macedônia durante as eleições presidenciais nos EUA, em 2016, foi motivada mais por razões econômicas que políticas. Os autores simplesmente descobriram que ganhavam mais dinheiro divulgando notícias falsas que verdadeiras.

Os incentivos econômicos para a circulação de informação enganosa são obviamente de curto prazo e míopes. No longo prazo, a disseminação de notícias falsas degrada as plataformas, prejudica os anunciantes e diminui a credibilidade de criadores de conteúdo honesto — um fato do qual a maioria deles está bem ciente.

Nossas ideias sobre como os fornecedores podem querer (ou precisar) mudar estão em estágios muito iniciais. De qualquer modo, vejo duas possibilidades:

1. Expandir o modelo de negócio do ecossistema. Uma abordagem radical seria substituir o modelo de negócio impulsionado por anúncios da Facebook e outras empresas de mídia social com um modelo de assinatura — que se baseia na ideia de que a priorização de cliques e envolvimento promove o conteúdo sensacionalista, polêmico e falso. Se os usuários simplesmente pagarem uma taxa de assinatura mensal, esse é o raciocínio, os incentivos poderão ser realinhados com os mais altos interesses dos usuários.

Essa possibilidade já está no radar da Facebook. No show Today, a COO, Sheryl Sandberg, deixou no ar a ideia de transformar a Facebook num modelo “freemium” — ou um produto de excelente qualidade gratuito, no qual os usuários pagariam para eliminar os anúncios e, provavelmente, a captura de dados. Economicamente falando, isso seria uma possibilidade: os modelos freemium, afinal, são dominantes. A Pandora permite que você ouça música gratuitamente, com anúncios; mas cobra se você quiser ouvir música sem anúncios. O New York Times permite que você leia dez artigos de graça por mês, para ler mais é preciso pagar.

Mas isso é realista? A Facebook e algumas outras grandes empresas criaram, em conjunto, um setor econômico de valor extremamente alto. É difícil imaginar que poderão abandonar a máquina de fazer dinheiro que criaram sem uma forte pressão dos reguladores (que discutirei adiante).

Mesmo que pudéssemos usar uma varinha mágica e reinventar os modelos de negócio em que se baseiam as empresas de plataformas de mídias sociais, seria aconselhável? Muitos dos editores que atuam em nichos e produzem conteúdo diversificado não convencional não sobreviveriam sem a receita proveniente dos anúncios, porque somente grandes atores têm condições de fazer os modelos de assinatura funcionar. Em vez de atuar em vários segmentos, os assinantes, provavelmente, escolheriam uma assinatura em cada categoria de conteúdo (notícias, esportes, opinião, e assim por diante). Consequentemente, o mercado para a produção de conteúdo talvez encolhesse, concentrando-se somente nas mãos de algumas grandes empresas. Para a sociedade, o prejuízo por essa perda de diversidade de informação seria enorme.

A mudança não prejudicaria somente os editores e seus consumidores. O ecossistema de comercialização de mídias sociais digitais mantém várias outras empresas e é responsável por um número significativo de empregos e pela grande produção de marcas, agências, balcão de negócios, plataformas do lado da demanda, permuta de anúncios, redes de anunciantes e plataformas do lado da oferta.

Outra questão importante é que mudar para um modelo de assinatura poderia acelerar a desigualdade. De acordo com um estudo do think tank PEW, de 2017, aproximadamente 70% dos adultos americanos “obtêm pelo menos algumas notícias em mídias sociais”, e 70% dos que utilizam o Twitter afirmam que obtêm notícias por meio desse veículo. Além das notícias, os usuários do Facebook têm acesso a redes e relacionamentos, que são essenciais para conseguir emprego e gerenciar oportunidades econômicas. A mudança para o sistema de assinaturas provavelmente restringiria o acesso para aqueles que não podem pagar.

Tal mudança poderia intensificar o que eu chamo de gap de privacidade — distribuição desigual de privacidade na sociedade. Somente usuários mais ricos poderiam pagar, digamos, US$ 9,99 por mês por uma assinatura do Facebook. Se acreditarmos que a privacidade é um bem de valor e que proteger nossos dados pessoais é importante, como nos sentimos sobre uma sociedade na qual os ricos compram a possibilidade de não serem vigiados enquanto se exige que os mais pobres tenham de negociar sua privacidade para ter acesso à informação e ao emprego?

Moral da história: não é recomendável uma mudança radical para o ecossistema das mídias sociais — não nos Estados Unidos, pelo menos. Em minha opinião, nem deveria acontecer: uma regulamentação rigorosa colocaria em risco o valor que essas empresas criaram para os consumidores e acionistas e desencadearia uma avalanche indesejada de consequências negativas. No entanto, existe uma alternativa menos radical e mais realista.

2. Ajuste o sistema, mas não o expanda. As empresas de plataformas têm o poder de reduzir o alcance das notícias falsas. Elas podem optar por trabalhar com terceiros para instruir e proteger os consumidores — fazendo o possível para detectar e rotular notícias falsas na esperança de que os usuários relutarão mais em compartilhá-las.

Esse tipo de intervenção dependeria de ajustar vários algoritmos atualmente utilizados no ecossistema das mídias sociais e exigiria a cooperação de vários stakeholders. Os algoritmos de alimentação de notícias determinam o que usuários veem em seus feeds de notícias. Os algoritmos que analisam tendências identificam e alavancam o alcance e a popularidade dos conteúdos mais envolventes (para o bem e para o mal). Modelos de direcionamento de anúncios e interfaces de programação de aplicativos (API, na sigla em inglês) permitem que os anunciantes, campanhas políticas e atores (aparentemente) estrangeiros direcionem conteúdos para públicos específicos — por exemplo, aqueles mais susceptíveis a notícias falsas sobre determinado assunto. Considerando um sistema com escore de veracidade relativamente preciso, esses algoritmos poderiam ser modificados para reduzir a disseminação de notícias falsas online.

Outra abordagem importante seria design de informação e testes. O efeito psicológico do design de informação na apresentação de notícias online se fará sentir em nosso modo de consumir, reagir e compartilhar conteúdo. Se esse design levasse em consideração as notícias falsas, ele ajudaria a reduzir sua disseminação.

Regulamentação

A questão da fiscalização dos gigantes das mídias sociais pelo governo está em todos os noticiários. Mark Zuckerberg depôs perante o Congresso americano em março e abril de 2018 e perante o Parlamento europeu em maio. E em maio, a União Europeia lançou a Regulamentação Geral sobre Proteção de Dados (GDPR, na sigla em inglês), estrutura reguladora dura e abrangente para proteger a privacidade dos consumidores. Grandes conclusões sobre a forma certa de abordar a privacidade de dados e medidas antitruste estão no escopo deste artigo. Mas os reguladores precisam consultar especialistas em economia digital e pisar com cuidado.

Alguns legisladores dos EUA parecem convencidos de que o Facebook precisa ser regulamentado porque é grande demais para se autorregular, enquanto outras empresas parecem não entender as nuances de como a regulamentação poderia afetar a sociedade e a economia. Muitas implicações não são óbvias. A pergunta “deveríamos regulamentar?” não faz sentido. Seria melhor perguntar “como a regulamentação pode preservar os efeitos positivos das mídias sociais e ao mesmo tempo limitar suas consequências negativas?”.

Parece particularmente difícil fiscalizar notícias falsas, porque inevitavelmente surge uma questão: quem teria o poder de decidir que informação seria disseminada? Esta talvez seja a questão mais importante que as democracias enfrentam na era da informação. Não damos ao governo o direito de censurar as mídias de notícias. Queremos dar a ele o direito de controlar o modo como a informação é disseminada online? Ditadores e outros líderes autoritários poderiam facilmente utilizar essa autoridade para se consolidar no poder. A Malásia decretou recentemente pena de seis anos de reclusão para fornecedores de notícias falsas. Essas medidas draconianas são facilmente utilizáveis para silenciar a oposição e promover a repressão.

E então surge a questão sobre até que ponto as empresas de mídias sociais são responsáveis pelo que é divulgado em seus canais. A Lei de Decência nas Comunicações dos Estados Unidos (CDA, na sigla em inglês), de 1996, estabeleceu que plataformas como Facebook seriam consideradas entidades de passagem, não responsáveis pelo conteúdo que seus usuários postam online. Isso foi visto como uma forma de proteger a liberdade de expressão e uma benção para a liberdade da internet. Mas a lei agora está sendo desafiada numa tentativa de construir instâncias conhecidas de liberdade de expressão em que os danos claramente superam os benefícios. O Senado americano, por exemplo, aprovou recentemente o Stop Enabling Sex Traffickers Act (Lei Pare de Facilitar o Tráfico Sexual, em tradução livre), que torna a Facebook responsável por anúncios de tráfico sexual em suas plataformas, pela expressiva votação de 97 a 2.

A CDA será decisiva para tornar as plataformas mais responsáveis pelo impacto que causam no mundo. A forma como ela é aplicada é fundamental, porque o discurso da regulamentação pode tornar-se uma ladeira escorregadia. À medida que os legisladores assumirem desafios similares no futuro, compensações entre benefícios e prejuízos serão pesadas e repesadas.

A regulação do discurso político online é outro exemplo da complexidade dessa questão. O estado de Maryland acabou de aprovar leis que exigem que plataformas de mídias sociais rastreiem todos os anúncios políticos e os usuários alvo, impedem que moeda estrangeira seja usada nas eleições em Maryland e autorizam o Tribunal Eleitoral a investigar reclamações sobre anúncios ou eliminação de eleitores online. A Facebook e a Twitter endossaram a Lei de Anúncios Honestos (Honest Ads Act, em inglês), que implementa restrições similares em nível federal, e já adotaram a maioria de suas cláusulas. Mas há a preocupação de que a lei de Maryland possa ser considerada inconstitucional no que se refere à Primeira Emenda. E, obviamente, a regulamentação poderia colocar o discurso político sob o escrutínio de atores políticos, com seus vieses e interesses pessoais.

Regulamentar a totalidade de dados pessoais é complicado. Não se pode esquecer que muitas empresas e serviços sociais dependem desses dados. Por exemplo, todo o nosso sistema de avaliação de cartões de crédito coleta, utiliza e vende dados granulares para anunciantes com a finalidade de usá-los como alvo. O acesso dos consumidores a cartões de crédito, hipotecas, serviços de assistência médica, viagens, serviços sociais e educação requer a coleta de dados privados. Os reguladores devem pesar os benefícios da privacidade de limitar a coleta de dados relativamente aos prejuízos que essas restrições podem causar a esses serviços essenciais.

Restringir a coleta de dados, habilitá-los sob autorização ou implementar APIs que permitam a portabilidade de dados está fadado a sofrer consequências indesejáveis. Por exemplo, um bom argumento pode ser a proteção de dados e o intercâmbio de concorrência. A portabilidade de dados pode facilitar a concorrência permitindo que novas empresas acessem dados sociais de determinados atores (e, portanto, seus efeitos na rede). Mas a Facebook atualmente está sendo criticada exatamente por essa portabilidade de dados, tendo compartilhado dados com empresas globais de hardware, provedoras de telefonia móvel e desenvolvedores de novos aplicativos, na China e em outros países. Precisamos de ideias sobre como garantir a proteção de dados e a concorrência simultaneamente. Caso contrário, fortalecer um poderia enfraquecer o outro.

Mesmo que altos níveis de segurança possam ser garantidos, não está claro que a portabilidade melhoraria necessariamente a concorrência. É possível, por exemplo, que permitir que os consumidores transfiram os dados de sua rede social de uma plataforma para outra facilite a concorrência entre plataformas — mas também é possível que os consumidores optem por compartilhar seus dados somente com grandes atores em quem confiam, e não com startups com quem que não se identificam. Impor restrições de privacidade universal agora, depois que a Facebook e outras empresas construíram seus monopólios de dados, poderia simplesmente servir para limitar a competição da Facebook, aumentando o poder de seu mercado. As limitações na coleta e utilização de dados poderiam ser combinadas com ações antitruste? Todos nós precisamos observar cuidadosamente o que a GDPR continua a implantar, porque sua implementação simultânea de restrições de privacidade e portabilidade de dados pode prenunciar o que acontecerá depois nos Estados Unidos.

Como pesquisador, estou particularmente preocupado com as consequências inesperadas do que eu chamo paradoxo da transparência: neste momento a Facebook está sendo fortemente pressionada para revelar mais sobre como a propaganda direcionada funciona, como seus algoritmos de alimentação de notícias funcionam, como seus algoritmos de tendências funcionam e como a Rússia ou qualquer outra entidade pode espalhar propaganda e notícias falsas na rede. Mas, ao mesmo tempo, ela está enfrentando forte pressão para proteger seus dados, aumentar a segurança e proteger a privacidade dos usuários. A Facebook vem trabalhando para ajudar os acadêmicos a avaliar o impacto das mídias sociais nas eleições. A iniciativa que ela desenvolveu em colaboração com Gary Kung, da Harvard, e Nate Persily, de Stanford, por exemplo, fornece um novo modelo para a colaboração universidade/empresa e é uma iniciativa bem-vinda. Mas existe um risco real de a empresa reagir exageradamente ao caso da Cambridge Analytica e colocar restrições desnecessárias no que ela compartilha, o que poderia afetar a
condução de pesquisas extremamente necessárias.

Desafios pela frente

Estancar a maré da falsidade não será tarefa fácil. O primeiro desafio, e talvez o mais difícil, é que praticamente todas as soluções dependem de definir o que é verdadeiro ou falso. Sejam rótulos para nos informar, ou algoritmos para impedir a disseminação de notícias falsas, nós precisamos determinar onde se situa a linha entre o verdadeiro e o falso — e conceder a alguém o direito de tomar a decisão. Esse é um problema difícil de ser resolvido.

Segundo: informação enganosa é alvo em movimento. À medida que desenvolvemos projetos para combater as mentiras, os interessados em promovê-las se adaptam. Algumas das mais sofisticadas falsidades que estudamos foi um tipo de narrativa que chamamos mista. Narrativas mistas contêm informação parcialmente verdadeira, e parcialmente falsa. Elas escondem a falsidade sob o manto da verdade, o que as torna mais difíceis de detectar e mais difíceis para os consumidores as ignorarem. Se a falsidade for rigorosamente policiada, narrativas intencionalmente misturadas se tornarão mais comuns.

Terceiro: ainda não vimos nada. A falsidade com que lidamos hoje está longe de ser tão sofisticada e insidiosa quanto a que veremos num futuro próximo. Em 2016, a Rússia utilizou mensagens políticas baseadas em texto com fotos adulteradas na tentativa de manipular as eleições presidenciais nos EUA. Mas as notícias falsas do futuro se manifestarão como mídia sintetizada — áudios e vídeos falsos feitos para parecer e soar reais. O desenvolvimento de sintetizadores de mídia no nível comercial mudará nossa percepção de realidade e nossos padrões de veracidade. As notícias de que deep fakes, um dos mais conhecidos sintetizadores de mídia, pretende democratizar seu software, tornando-o fácil de acessar e fácil de utilizar, não é bom sinal. Detectar, rotular e bloquear a disseminação de mídia sintetizada será um dos desafios mais importantes da onda iminente de criação de falsificações.

Finalmente, não devemos encerrar investigações independentes sobre os efeitos das plataformas sociais na sociedade. Exatamente neste momento, a forma como as pessoas reagem aos anúncios microdirecionados pode ser a melhor indicação de como reagirão à manipulação política. As reações não são insignificantes, mas também não impressionam: as taxas básicas de conversão estão na faixa de 0,01% a 0,1%. Com números assim tão baixos, é realmente provável que a Cambridge Analytica tenha atingido taxas de conversão entre 5% e 7%, como testemunhou o delator Christopher Wylie? Não sabemos — mas precisamos descobrir isso e muito mais se pretendemos enfrentar efetivamente os próximos desafios de nosso ecossistema de informação global.

. . .

O aumento da falsidade ameaça criar o que Franklin Foer, jornalista do Atlantic, chama de “fim da realidade”. Vivemos num mundo onde governos estrangeiros espalham notícias falsas para manipular eleições e destruir democracias, políticos se defendem rotulando a oposição como fake news e novas tecnologias criam realidades artificiais e virtuais convincentes capazes de competir conosco mesmos. Se essas tendências forem bem-sucedidas em separar o que é real de nossa percepção coletiva da realidade, estaremos em grandes dificuldades. Plataformas, cientistas e reguladores precisam trabalhar em conjunto para preservar e promover a verdade antes de enfrentarmos uma verdadeira guerra pela realidade.

Compartilhe nas redes sociais!