
Isto é como parte de um Código de Práticas voluntário que a Comissão Européia quer agora que as plataformas desenvolvam e apliquem – até o verão – como parte de um pacote mais amplo de propostas que são geralmente direcionadas a lidar com a disseminação problemática e impacto da desinformação. conectados.
As propostas seguem um relatório comissionado pela CE no mês passado , pelo seu Grupo de Especialistas de Alto Nível, que recomendou mais transparência das plataformas online para ajudar a combater a disseminação de informações falsas on-line – e também pediu investimento urgente em educação para alfabetização midiática e informacional estratégias para capacitar jornalistas e fomentar um ecossistema de mídia de notícias diversificado e sustentável.
Bots, contas falsas, anúncios políticos, bolhas de filtro
Em um anúncio na sexta-feira, a Comissão disse que quer plataformas para estabelecer “sistemas de marcação clara e regras para bots”, a fim de garantir “suas atividades não podem ser confundidas com interações humanas”. Não entra em um nível maior de detalhes sobre como isso pode ser alcançado. É evidente que as plataformas pretendem ter metodologias relevantes.
Identificar bots não é uma ciência exata – como acadêmicos realizando pesquisas sobre como a informação se espalha online poderia lhe dizer . As ferramentas atuais que existem para tentar detectar bots normalmente envolvem contas de rating em uma série de critérios para fornecer uma pontuação da probabilidade de uma conta ser controlada por algoritmos versus controlada por humanos. Mas as plataformas têm, pelo menos, uma visão perfeita de seus próprios sistemas, enquanto os acadêmicos tiveram que confiar no nível variável de plataformas de acesso que estão dispostas a fornecê-las.
Outro fator aqui é que, dada a natureza sofisticada de algumas campanhas de desinformação on-line – os esforços patrocinados pelo Kremlin, como a Agência de Pesquisa da Internet da Rússia, por exemplo – se o foco acaba sendo bots controlados por algoritmos contra bots de identificação que poderia ter agentes humanos ajudando ou controlando-os, muitos agentes de desinformação mais insidiosos poderiam facilmente escapar através das rachaduras.
Dito isso, outras medidas nas propostas de plataformas da CE incluem a intensificação dos esforços existentes para fechar contas falsas e ser capaz de demonstrar a “eficácia” de tais esforços – para maior transparência sobre como contas falsas são identificadas e a proporção sendo removida (que poderia ajudar a explorar a atividade de bots com controle humano mais sofisticada em plataformas também).
Outra medida do pacote: a CE diz que quer ver uma análise “significativamente” melhorada dos posicionamentos de anúncios – com foco na tentativa de reduzir as oportunidades de receita para os fornecedores de desinformação.
Restringir as opções de segmentação para publicidade política é outro componente. “Garantir transparência sobre conteúdo patrocinado relacionado a processos eleitorais e de formulação de políticas”, é um dos objetivos listados em sua folha de dados – e transparência de anúncios é algo do Facebookdisse que está priorizando desde as revelações sobre a extensão da desinformação do Kremlin em sua plataforma durante a eleição presidencial dos EUA em 2016, com ferramentas expandidas para este verão.
A Comissão também diz de modo geral que quer que as plataformas forneçam “maior clareza sobre o funcionamento dos algoritmos” e possibilitem a verificação de terceiros – embora não haja um nível maior de detalhamento neste momento para indicar quanto de responsabilidade algorítmica é obtida das plataformas.
Pedimos mais sobre o seu pensamento aqui e atualizaremos esta história com qualquer resposta. Ele parece estar procurando testar a água para ver o quanto do funcionamento das caixas-pretas algorítmicas das plataformas pode ser convencido voluntariamente – como por meio de medidas direcionadas a bots e contas falsas – na tentativa de evitar regulamentações formais e mais volumosas a linha.
As bolhas de filtro também parecem estar informando o pensamento da Comissão, pois afirma que quer plataformas para tornar mais fácil para os usuários “descobrir e acessar diferentes fontes de notícias representando pontos de vista alternativos” – através de ferramentas que permitem aos usuários personalizar e interagir com a experiência on-line. facilitar a descoberta de conteúdo e o acesso a diferentes fontes de notícias “.
Embora outro objetivo declarado seja o de plataformas para “melhorar o acesso à informação confiável” – então há perguntas sobre como esses dois objetivos podem ser equilibrados, isto é, sem esforços para minar o outro.
Sobre a confiabilidade, a CE diz que quer plataformas para ajudar os usuários a avaliar se o conteúdo é confiável usando “indicadores da confiabilidade das fontes de conteúdo”, bem como fornecendo “ferramentas de fácil acesso para relatar a desinformação”.
Em uma das várias etapas que o Facebook adotou desde 2016 para tentar resolver o problema de conteúdo falso sendo disseminado em sua plataforma, a empresa experimentou colocar rótulos ” contestados ” ou sinais de alerta em informações potencialmente não confiáveis. No entanto, a empresa descontinuou isso em dezembro, depois que pesquisas sugeriram que rótulos negativos poderiam consolidar crenças profundamente arraigadas, em vez de ajudar a desmascarar histórias falsas.
Em vez disso, começou a mostrar histórias relacionadas – contendo conteúdo que ele verificou como sendo provenientes de agências de notícias cuja rede de verificadores de fatos era considerada respeitável – como uma forma alternativa de desmascarar possíveis falsificações.
A abordagem da Comissão parece estar alinhada com a abordagem repensada do Facebook – com a questão subjetiva de como fazer julgamentos sobre o que é (e, portanto, o que não é) uma fonte confiável que está sendo transferida para terceiros, dado que uma outra vertente do O código está focado em “permitir que os verificadores de fatos, pesquisadores e autoridades públicas monitorem continuamente a desinformação online”.
Desde 2016, o Facebook tem apoiado fortemente uma rede de verificadores de fatos de parceiros locais para ajudar a identificar e mitigar a disseminação de falsificações em diferentes mercados – incluindo verificadores de conteúdo escrito e também fotos e vídeos , o último em um esforço para combater memes falsos antes que eles tenham a chance de se tornarem virais e distorcerem as percepções.
Em paralelo, o Google também trabalha com verificadores de fatos externos , como em iniciativas como o destaque de artigos verificados por fatos no Google Notícias e na pesquisa.
A Comissão aprova claramente as empresas que procuram uma rede mais alargada de especialistas terceiros. Mas também está incentivando o trabalho em soluções inovadoras baseadas em tecnologia para o complexo problema da desinformação – descrevendo o AI (“sujeito à supervisão humana apropriada”) para desempenhar um papel “crucial” para “verificar, identificar e marcar desinformação”, e apontando para blockchain como tendo promessa de validação de conteúdo.
Especificamente, ele considera que a tecnologia blockchain poderia desempenhar um papel, por exemplo, combinando o uso de “identificação eletrônica confiável, autenticação e pseudônimos verificados” para preservar a integridade do conteúdo e validar “informações e / ou suas fontes, permitir transparência e rastreabilidade e promover a confiança nas notícias exibidas na Internet “.
É uma das poucas tecnologias emergentes que o executivo sinaliza como potencialmente úteis para combater notícias falsas, e cujo desenvolvimento diz que pretende apoiar através de um veículo de financiamento de pesquisa existente na UE: o Programa de Trabalho do Horizonte 2020 .
Ele diz que usará esse programa para apoiar atividades de pesquisa em “ferramentas e tecnologias como inteligência artificial e blockchain que podem contribuir para um melhor espaço online, aumentando a segurança cibernética e a confiança nos serviços online”.
Ele também sinaliza “algoritmos cognitivos que lidam com informações contextualmente relevantes, incluindo a precisão e a qualidade das fontes de dados” como uma tecnologia promissora para “melhorar a relevância e a confiabilidade dos resultados de pesquisa”.
A Comissão está a dar plataformas até Julho para desenvolver e aplicar o Código de Práticas – e está a usar a possibilidade de ainda poder elaborar novas leis se considerar que as medidas voluntárias fracassam como um mecanismo para encorajar as empresas a suar.
Também está propondo uma série de outras medidas para abordar a questão da desinformação online – incluindo:
Uma rede europeia independente de checagem de fatos: a Comissão afirma que isso estabelecerá “métodos de trabalho comuns, trocará as melhores práticas e trabalhará para alcançar a cobertura mais ampla possível de correções factuais em toda a UE”; e diz que eles serão selecionados entre os membros da União Européia da Rede Internacional de Pesquisa de Fatos, que, segundo ela, segue “um estrito Código de Rede Internacional de Verificação de Fatos”.
Uma plataforma on-line européia segura sobre desinformação para apoiar a rede de verificadores de fatos e pesquisadores acadêmicos relevantes com “coleta e análise de dados transfronteiriços”, além de se beneficiar do acesso a dados em toda a UE
Melhoria da literacia mediática: diz-se que um nível mais elevado de literacia mediática “ajudará os europeus a identificar a desinformação em linha e a abordar o conteúdo online com um olhar crítico”. Por isso, diz que vai encorajar os verificadores de fatos e as organizações da sociedade civil a fornecer material educacional para escolas e educadores, e organizar uma Semana Europeia de Alfabetização de Mídia.
Apoio aos Estados-Membros para garantir a capacidade de resistência das eleições ao que chama de “ameaças cibernéticas cada vez mais complexas”, incluindo desinformação em linha e ciberataques. As medidas aqui mencionadas incluem encorajar as autoridades nacionais a identificar as melhores práticas para a identificação, mitigação e gestão de riscos a tempo para as eleições de 2019 do Parlamento Europeu. Também observa o trabalho de um Grupo de Cooperação, dizendo que “os Estados Membros começaram a mapear as iniciativas europeias existentes sobre segurança cibernética de redes e sistemas de informação usados para processos eleitorais, com o objetivo de desenvolver orientação voluntária” até o final do ano. Também afirma que também organizará uma conferência de alto nível com os Estados Membros sobre ameaças cibernéticas às eleições no final de 2018.
Promoção de sistemas de identificação online voluntários com o objetivo declarado de melhorar a “rastreabilidade e identificação de fornecedores de informação” e promover “mais confiança e confiabilidade nas interações online e nas informações e suas fontes”. Isso inclui suporte para atividades de pesquisa relacionadas em tecnologias como blockchain, como observado acima. A Comissão também afirma que “explorará a viabilidade de estabelecer sistemas voluntários para permitir maior responsabilização com base em um sistema de identificação e autenticação eletrônica” – como uma medida para lidar com contas falsas. “Juntamente com outras ações destinadas a melhorar a rastreabilidade online (melhorando o funcionamento, disponibilidade e precisão das informações sobre IP e nomes de domínio no sistema WHOIS e promovendo a adoção do protocolo IPv6), isso também contribuiria para limitar os ataques cibernéticos”, acrescenta
Apoio à qualidade e informação diversificada: A Comissão apela aos Estados-Membros para que aumentem o seu apoio ao jornalismo de qualidade, a fim de garantir um ambiente de comunicação pluralista, diversificado e sustentável. A Comissão afirma que lançará um convite à apresentação de propostas em 2018 para “a produção e disseminação de conteúdo de notícias de qualidade sobre assuntos da UE através de meios de comunicação baseados em dados”.
Ele diz que terá como objetivo coordenar sua política estratégica de comunicação para tentar contrapor “falsas narrativas sobre a Europa” – o que faz você pensar se desmentir a produção de certos jornais tablóides do Reino Unido pode cair sob essa nova estratégia da CE – e também mais amplamente combater a desinformação “dentro e fora da UE”.
Comentando as propostas numa declaração, o vice-presidente da Comissão para o Mercado Único Digital, Andrus Ansip, afirmou: “A desinformação não é nova como instrumento de influência política. Novas tecnologias, especialmente digitais, expandiram seu alcance através do ambiente on-line para minar nossa democracia e sociedade. Como a confiança on-line é fácil de quebrar, mas difícil de reconstruir, a indústria precisa trabalhar em conjunto conosco nessa questão. As plataformas online têm um papel importante a desempenhar na luta contra as campanhas de desinformação organizadas por indivíduos e países que visam ameaçar a nossa democracia. “
Os próximos passos da CE agora trarão as partes relevantes juntas – incluindo plataformas, indústria de publicidade e “grandes anunciantes” – em um fórum para trabalhar na unificação da cooperação e fazer com que eles se apliquem a medidas ainda voluntárias, nesta fase. .
“O primeiro resultado do fórum deve ser um Código de Práticas de Desinformação em toda a UE, a ser publicado em julho de 2018, com vistas a ter um impacto mensurável até outubro de 2018”, diz a Comissão.
O primeiro relatório de progresso será publicado em dezembro de 2018. “O relatório também examinará a necessidade de mais ações para assegurar o monitoramento e avaliação contínuos das ações delineadas”, adverte.
E se a auto-regulação falhar …
Numa ficha informativa que reforça ainda mais os seus planos, a Comissão afirma: “Caso a abordagem de auto-regulação falhe, a Comissão poderá propor novas acções, incluindo medidas regulamentares direccionadas para algumas plataformas.”
E para “alguns” leia-se: Mainstream social platforms – assim, provavelmente, os grandes players de tecnologia na área digital social: Facebook, Google, Twitter.
Para possíveis ações regulatórias, os gigantes da tecnologia só precisam olhar para a Alemanha, onde uma lei de discurso de ódio de mídia social de 2017 introduziu multas de até 50M para plataformas que não cumprem com pedidos de remoção válidos dentro de 24 horas para casos simples, por exemplo. uma espécie de lei assustadora em toda a UE que poderia vir correndo com eles, se a Comissão e os estados da UE decidirem que é necessário legislar.
Embora a comissária de Justiça e Consumidores, Vera Jourova, tenha sinalizado em janeiro que sua preferência pelo discurso do ódio pelo menos fosse continuar com a abordagem voluntária – embora ela também tenha dito que os ministros de um Estado membro estão abertos a uma nova lei da UE. falhou.
Na Alemanha, a chamada lei NetzDG enfrentou críticas por pressionar as plataformas para a censura baseada em aversão ao risco do conteúdo online. E a Comissão está claramente interessada em evitar que tais acusações sejam niveladas com as suas propostas, sublinhando que, se a regulamentação for considerada necessária, “tais acções [regulamentares] devem, em qualquer caso, respeitar rigorosamente a liberdade de expressão”.
Comentando as propostas do Código de Prática, um porta-voz do Facebook nos disse: “As pessoas querem informações precisas no Facebook – e é isso que queremos também. Temos investido fortemente na luta contra falsas notícias no Facebook, interrompendo os incentivos econômicos para a disseminação de notícias falsas, construindo novos produtos e trabalhando com verificadores de fatos de terceiros “.
Um porta-voz do Twitter se recusou a comentar as propostas da Comissão, mas sinalizou contribuições que ele disse que a empresa já está fazendo para apoiar a alfabetização midiática – incluindo um evento na semana passada na sede da EMEA.
No momento em que este artigo foi escrito, o Google não respondeu a um pedido de comentário.
No mês passado, a Comissão apertou mais o parafuso em plataformas sobre conteúdo terrorista especificamente – dizendo que quer que isso seja resolvido dentro de uma hora de um relatório como regra geral. Embora ainda não tenha dado o passo para consolidar essa “regra” da hora na legislação, também prefere ver quanta ação ela pode voluntariamente extrair das plataformas por meio de uma rota de autorregulação.
Créditos da Imagem: Bryce Durbin / TechCrunch /
Fonte: www.techcrunch.com



