Nota: O seguinte artigo irá ajudá-lo com: 4 ideias para entender e gerenciar o poder dos algoritmos nas mídias sociais
Não existe uma solução única para tornar todos os algoritmos de mídia social mais fáceis de analisar e entender, mas desmontar as caixas pretas que cercam esse software é um bom ponto de partida. Fazer alguns furos nesses contêineres e compartilhar o conteúdo com analistas independentes também pode melhorar a responsabilidade. Pesquisadores, especialistas em tecnologia e juristas discutiram como iniciar esse processo durante o The Social Media Summit no MIT na quinta-feira.
A Iniciativa do MIT sobre a Economia Digital hospedou conversas que variaram da guerra na Ucrânia e desinformação à transparência em algoritmos e IA responsável.
A denunciante do Facebook, s Haugen, abriu o evento online gratuito com uma discussão com Sinan Aral, diretor do MIT IDE, sobre responsabilidade e transparência nas mídias sociais durante a primeira sessão. Haugen é engenheiro elétrico e de computação e ex-gerente de produto do Facebook. Ela compartilhou pesquisas internas do Facebook com a imprensa, o Congresso e os reguladores em meados de 2021. Haugen descreve sua ocupação atual como “integridade cívica” no LinkedIn e descreveu várias mudanças que reguladores e líderes do setor precisam fazer em relação à influência dos algoritmos.
Dever de cuidado: expectativa de segurança nas redes sociais
Haugen deixou Meta há quase um ano e agora está desenvolvendo a ideia do “dever de cuidado”. Isso significa definir a ideia de uma expectativa razoável de segurança nas plataformas de mídia social.
Isso inclui responder à pergunta: como você mantém as pessoas com menos de 13 anos fora desses sistemas?
“Como ninguém consegue ver por trás da cortina, eles não sabem que perguntas fazer”, disse ela. “Então, qual é um nível de rigor aceitável e razoável para manter as crianças fora dessas plataformas e quais dados precisaríamos que elas publicassem para entender se estão cumprindo o dever de cuidado?”
VEJA: Por que um metaverso seguro é obrigatório e como construir mundos virtuais acolhedores
Ela usou a atualização de conteúdo amplamente visualizado do Facebook como um exemplo de apresentação enganosa de dados. O relatório inclui conteúdo apenas dos EUA. A Meta investiu a maior parte de seu orçamento de segurança e moderação de conteúdo neste mercado, de acordo com Haugen. Ela afirma que uma lista dos 20 principais que refletisse conteúdo de países onde o risco de genocídio é alto seria um reflexo mais preciso do conteúdo popular no Facebook.
“Se víssemos essa lista de conteúdo, diríamos que isso é inável”, disse ela.
Ela também enfatizou que o Facebook é a única conexão com a internet para muitas pessoas no mundo e não há alternativa ao site de mídia social que foi vinculado ao genocídio. Uma maneira de reduzir o impacto da desinformação e do discurso de ódio no Facebook é mudar a forma como os anúncios são precificados. Haugen disse que os preços dos anúncios são baseados na qualidade, com a premissa de que “anúncios de alta qualidade” são mais baratos do que anúncios de baixa qualidade.
“O Facebook define qualidade como a capacidade de obter uma reação – uma curtida, um comentário ou um compartilhamento”, disse ela. “O Facebook sabe que o caminho mais curto para um clique é a raiva e por isso os anúncios com raiva acabam sendo cinco a dez vezes mais baratos do que outros anúncios.”
Haugen disse que um compromisso justo seria ter taxas de anúncios fixas e “remover o subsídio para extremismo do sistema”.
Expandindo o o a dados de plataformas de mídia social
Uma das recomendações de Haugen é exigir a liberação de dados auditáveis sobre algoritmos. Isso daria aos pesquisadores independentes a capacidade de analisar esses dados e entender as redes de informação, entre outras coisas.
Compartilhar esses dados também aumentaria a transparência, o que é fundamental para melhorar a responsabilidade das plataformas de mídia social, disse Haugen.
Na sessão “Algorithmic Transparency”, os pesquisadores explicaram a importância de um o mais amplo a esses dados. Dean Eckles, professor da MIT Sloan School of Management e líder de pesquisa do IDE, moderou a conversa com Daphne Keller, diretora de regulamentação de plataformas da Universidade de Stanford, e Kartik Hosanagar, diretor de IA para negócios da Wharton.
VEJA: Como identificar desinformação nas redes sociais e proteger seu negócio
Hosanagar discutiu pesquisas do Twitter e Meta sobre a influência dos algoritmos, mas também apontou as limitações desses estudos.
“Todos esses estudos nas plataformas am por aprovações internas, então não sabemos sobre os que não são aprovados internamente para sair”, disse. “Tornar os dados íveis é importante.”
A transparência também é importante, mas o termo precisa ser entendido no contexto de um público específico, como desenvolvedores de software, pesquisadores ou usuários finais. Hosanagar disse que a transparência algorítmica pode significar qualquer coisa, desde revelar o código-fonte, compartilhar dados e explicar o resultado.
Os legisladores geralmente pensam em termos de maior transparência para os usuários finais, mas Hosanagar disse que isso não parece aumentar a confiança entre esses usuários.
Hosanagar disse que as plataformas de mídia social têm muito controle sobre a compreensão desses algoritmos e que expor essas informações a pesquisadores externos é fundamental.
“No momento, a transparência é principalmente para os próprios cientistas de dados dentro da organização para entender melhor o que seus sistemas estão fazendo”, disse ele.
Acompanhe qual conteúdo é removido
Uma maneira de entender qual conteúdo é promovido e moderado é observar as solicitações para remover informações das várias plataformas. Keller disse que o melhor recurso para isso é o Projeto Lumen de Harvard, uma coleção de solicitações de remoção de conteúdo online com base na Lei de Direitos Autorais do Milênio Digital dos EUA, bem como reivindicações de marcas, patentes, conteúdo regulamentado localmente e remoção de informações privadas. Daphne disse que uma grande quantidade de pesquisas surgiu desses dados provenientes de empresas como Google, Twitter, Wikipedia, WordPress e Reddit.
“Você pode ver quem perguntou e por que e qual era o conteúdo, bem como identificar erros ou padrões de viés”, disse ela.
A não é uma única fonte de dados para solicitações de remoção para YouTube ou Facebook, no entanto, para facilitar para os pesquisadores ver qual conteúdo foi removido dessas plataformas.
“As pessoas fora das plataformas podem fazer o bem se tiverem esse o, mas temos que superar essas barreiras significativas e esses valores concorrentes”, disse ela.
Keller disse que a Lei de Serviços Digitais aprovada pela União Europeia em janeiro de 2021 melhorará os relatórios públicos sobre algoritmos e o o dos pesquisadores aos dados.
“Vamos mudar muito a transparência na Europa e isso afetará o o à informação em todo o mundo”, disse ela.
Em um post sobre o ato, a Electronic Frontier Foundation disse que os legisladores da UE acertaram em vários elementos do ato, incluindo o fortalecimento do direito dos usuários ao anonimato online e comunicação privada e estabelecendo que os usuários devem ter o direito de usar e pagar por serviços anonimamente sempre que razoável. O EFF está preocupado com o fato de os poderes de execução da lei serem muito amplos.
Keller acha que seria melhor que os reguladores estabelecessem regras de transparência.
“Os reguladores são lentos, mas os legisladores são ainda mais lentos”, disse ela. “Eles vão bloquear modelos de transparência que estão pedindo a coisa errada.”
VEJA: Os formuladores de políticas querem regular a IA, mas não têm consenso sobre como
Hosanagar disse que os reguladores sempre estarão muito atrás do setor de tecnologia porque as plataformas de mídia social mudam muito rapidamente.
“As regulamentações por si só não vão resolver isso; podemos precisar de uma maior participação das empresas para não seguir apenas a letra da lei”, disse. “Isso vai ser difícil nos próximos anos e décadas.”
Além disso, os regulamentos que funcionam para o Facebook e o Instagram não abordariam as preocupações com o TikTok e o ShareChat, um aplicativo de mídia social popular na Índia, como Eckles apontou. Sistemas construídos em uma arquitetura descentralizada seriam outro desafio.
“E se o próximo canal de mídia social estiver no blockchain?” disse Hosanagar. “Isso muda toda a discussão e a leva para outra dimensão que torna toda a conversa atual irrelevante.”
Formação em ciências sociais para engenheiros
O também discutiu a educação do usuário para consumidores e engenheiros como forma de melhorar a transparência. Uma maneira de fazer com que mais pessoas perguntem “devemos construí-lo?” é adicionar um curso de ciências sociais ou dois aos cursos de engenharia. Isso pode ajudar os arquitetos de algoritmos a pensar em sistemas de tecnologia de maneiras diferentes e a entender os impactos sociais.
“Os engenheiros pensam em termos da precisão dos algoritmos de recomendação do feed de notícias ou qual parte das 10 histórias recomendadas é relevante”, disse Hosanagar. “Nada disso leva em conta questões como isso fragmenta a sociedade ou como isso afeta a privacidade pessoal.”
Keller apontou que muitos engenheiros descrevem seu trabalho de maneiras publicamente disponíveis, mas cientistas sociais e advogados nem sempre usam essas fontes de informação.
VEJA: Implementando IA ou preocupado com o comportamento do fornecedor? Esses modelos de política de ética podem ajudar
Hosanagar sugeriu que as empresas de tecnologia adotem uma abordagem de código aberto para a transparência algorítmica, da mesma forma que as organizações compartilham conselhos sobre como gerenciar um data center ou uma implantação em nuvem.
“Empresas como Facebook e Twitter têm lidado com esses problemas há algum tempo e fizeram muito progresso com o qual as pessoas podem aprender”, disse ele.
Keller usou o exemplo das diretrizes do avaliador de qualidade da Pesquisa do Google como uma discussão “engenheiro para engenheiro” que outros profissionais poderiam considerar educacional.
“Vivo no mundo dos cientistas sociais e advogados e eles não leem esse tipo de coisa”, disse ela. “Existe um nível de transparência existente que não está sendo aproveitado.”
Escolha seu próprio algoritmo
A ideia de Keller para melhorar a transparência é permitir que os usuários selecionem seu próprio moderador de conteúdo por meio de middleware ou “APIs mágicas”. Editores, provedores de conteúdo ou grupos de defesa podem criar um filtro ou algoritmo que os usuários finais podem escolher para gerenciar o conteúdo.
“Se queremos que haja menos estrangulamento no discurso das plataformas gigantes de hoje, uma resposta é introduzir competição na camada de moderação de conteúdo e algoritmos de classificação”, disse ela.
Os usuários podem selecionar as regras de moderação de um determinado grupo e depois ajustar as configurações de acordo com suas próprias preferências.
“Dessa forma, não há um algoritmo que seja tão conseqüente”, disse ela.
Nesse cenário, as plataformas de mídia social ainda hospedariam o conteúdo e gerenciariam a violação de direitos autorais e solicitações para remover conteúdo.
VEJA: Segurança do metaverso: como aprender com os erros da Internet 2.0 e construir mundos virtuais seguros
Essa abordagem pode resolver alguns problemas legais e promover a autonomia do usuário, de acordo com Keller, mas também apresenta um novo conjunto de problemas de privacidade.
“Há também a séria questão sobre como a receita flui para esses provedores”, disse ela. “Definitivamente, há coisas logísticas para fazer lá, mas é logístico e não é um problema fundamental da Primeira Emenda que encontramos com muitas outras propostas.”
Keller sugeriu que os usuários querem que os porteiros de conteúdo mantenham valentões e racistas do lado de fora e reduzam os níveis de spam.
“Uma vez que você tenha uma entidade centralizada fazendo o gatekeeping para atender às demandas dos usuários, isso pode ser regulado para atender às demandas do governo”, disse ela.