Connection Information

To perform the requested action, WordPress needs to access your web server. Please enter your FTP credentials to proceed. If you do not your credentials, you should your web host.

Connection Type

Connection Information

To perform the requested action, WordPress needs to access your web server. Please enter your FTP credentials to proceed. If you do not your credentials, you should your web host.

Connection Type

▷ O principal desafio para a saúde da Internet é a disparidade e os danos do poder da IA, diz Mozilla

O principal desafio para a saúde da Internet é a disparidade e os danos do poder da IA, diz Mozilla

Nota: O seguinte artigo irá ajudá-lo com: O principal desafio para a saúde da Internet é a disparidade e os danos do poder da IA, diz Mozilla

O principal desafio para a saúde da internet é a disparidade de poder entre quem se beneficia da IA ​​e quem é prejudicado pela IA, revela o novo 2022 Internet Health da Mozilla.

Mais uma vez, este novo relatório coloca a IA sob os holofotes sobre como empresas e governos usam a tecnologia. O relatório da Mozilla examinou a natureza do mundo orientado por IA citando exemplos reais de diferentes países.

A TechRepublic conversou com Solana Larsen, editora do relatório Internet Health da Mozilla, para esclarecer o conceito de “IA responsável desde o início”, IA caixa preta, o futuro das regulamentações e como alguns projetos de IA lideram pelo exemplo.

VEJO: Política de Ética em Inteligência Artificial (TechRepublic )

Larsen explica que os sistemas de IA devem ser construídos desde o início, considerando ética e responsabilidade, e não adicionados posteriormente, quando os danos começarem a surgir.

“Por mais lógico que pareça, isso realmente não acontece o suficiente”, disse Larsen.

De acordo com as descobertas da Mozilla, a centralização de influência e controle sobre a IA não funciona em benefício da maioria das pessoas. Dadas as dimensões que a tecnologia de IA está tomando, à medida que a IA é adotada em todo o mundo, a questão se tornou uma das principais preocupações.

O relatório do Market Watch sobre a interrupção da IA ​​revela o quão grande é a IA. O ano de 2022 abriu com mais de US$ 50 bilhões em novas oportunidades para empresas de IA, e o setor deve subir para US$ 300 bilhões até 2025.

A adoção da IA ​​em todos os níveis agora é inevitável. Trinta e dois países já adotaram estratégias de IA, mais de 200 projetos com mais de US$ 70 bilhões em financiamento público foram anunciados na Europa, Ásia e Austrália, e startups estão levantando bilhões em milhares de negócios em todo o mundo.

Mais importante, os aplicativos de IA mudaram de IA baseada em regras para IA baseada em dados, e os dados que esses modelos usam são dados pessoais. A Mozilla reconhece o potencial da IA, mas alerta que já está causando danos diariamente em todo o mundo.

“Precisamos de construtores de IA de diversas origens que entendam a complexa interação de dados, IA e como isso pode afetar diferentes comunidades”, disse Larsen ao TechRepublic. Ela pediu regulamentações para garantir que os sistemas de IA sejam construídos para ajudar, não para prejudicar.

O relatório da Mozilla também se concentra no problema de dados da IA, onde conjuntos de dados grandes e frequentemente reutilizados são colocados em funcionamento, apesar de não garantir os resultados que conjuntos de dados menores, projetados especificamente para um projeto, fazem.

Os dados usados ​​para treinar algoritmos de aprendizado de máquina geralmente são provenientes de sites públicos como o Flickr. A organização alerta que muitos dos conjuntos de dados mais populares são compostos de conteúdo extraído da Internet, que “reflete de forma esmagadora palavras e imagens que distorcem o inglês, o americano, o branco e o olhar masculino”.

Black Bock AI: desmistificando a inteligência artificial

A IA parece estar se livrando de muitos dos danos que causa graças à sua reputação de ser muito técnica e avançada para as pessoas entenderem. Na indústria de IA, quando uma IA usa um modelo de aprendizado de máquina que os humanos não conseguem entender, ela é conhecida como IA Caixa Preta e marcada por falta de transparência.

Larsen diz que, para desmistificar a IA, os usuários devem ter transparência sobre o que o código está fazendo, quais dados está coletando, quais decisões está tomando e quem está se beneficiando dele.

“Nós realmente precisamos rejeitar a noção de que a IA é muito avançada para as pessoas terem uma opinião, a menos que sejam cientistas de dados”, disse Larsen. “Se você está sofrendo danos de um sistema, você sabe algo sobre ele que talvez até mesmo seu próprio projetista não saiba.”

Empresas como Amazon, Apple, Google, Microsoft, Meta e Alibaba estão no topo das listas das que mais se beneficiam graças aos produtos, serviços e soluções baseados em IA. Mas outros setores e aplicativos, como militar, vigilância, propaganda computacional – usado em 81 países em 2020 – e desinformação, bem como viés e discriminação de IA do setor financeiro e jurídico, também estão levantando bandeiras vermelhas pelos danos que criam.

Regulando a IA: da conversa à ação

As grandes empresas de tecnologia são conhecidas por muitas vezes se oporem às regulamentações. A IA militar e governamental também opera em um ambiente não regulamentado, muitas vezes colidindo com ativistas de direitos humanos e privacidade.

A Mozilla acredita que os regulamentos podem ser proteções para a inovação que ajudam a facilitar a confiança e nivelar o campo de jogo.

“É bom para empresas e consumidores”, diz Larsen.

A Mozilla apóia regulamentações como a DSA na Europa e segue de perto a Lei de IA da UE. A empresa também apoia projetos de lei nos EUA que tornariam os sistemas de IA mais transparentes.

A privacidade de dados e os direitos do consumidor também fazem parte do cenário legal que pode ajudar a abrir caminho para uma IA mais responsável. Mas os regulamentos são apenas uma parte da equação. Sem fiscalização, os regulamentos não am de palavras no papel.

“Uma massa crítica de pessoas pedindo mudança e responsabilidade, e precisamos de construtores de IA que coloquem as pessoas antes do lucro”, disse Larsen. “No momento, uma grande parte da pesquisa e desenvolvimento de IA é financiada por grandes tecnologias, e precisamos de alternativas aqui também.”

VEJO: Folha de dicas do Metaverse: tudo o que você precisa saber (PDF grátis) (TechRepublic)

O relatório da Mozilla vinculou projetos de IA causando danos a várias empresas, países e comunidades. A organização cita projetos de IA que estão afetando os trabalhadores temporários e suas condições de trabalho. Isso inclui o exército invisível de trabalhadores de baixa remuneração que treinam tecnologia de IA em sites como o Amazon Mechanical Turk, com remuneração média de até US$ 2,83 por hora.

“Na vida real, repetidamente, os danos da IA ​​afetam desproporcionalmente as pessoas que não são beneficiadas pelos sistemas globais de poder”, disse Larsen.

A organização também está agindo ativamente.

Um exemplo de suas ações é a extensão do navegador RegretsReporter da Mozzila. Ele transforma os usuários comuns do YouTube em vigilantes do YouTube, fazendo crowdsourcing de como a IA de recomendação da plataforma funciona.

Trabalhando com dezenas de milhares de usuários, a investigação da Mozilla revelou que o algoritmo do YouTube recomenda vídeos que violam as próprias políticas da plataforma. A investigação teve bons resultados. O YouTube agora é mais transparente sobre como sua IA de recomendação funciona. Mas a Mozilla não tem planos de parar por aí. Hoje, eles continuam suas pesquisas em diferentes países.

Larsen explica que a Mozzila acredita que esclarecer e documentar a IA quando ela opera em condições de sombra é de suma importância. Além disso, a organização pede o diálogo entre as empresas de tecnologia com o objetivo de entender os problemas e encontrar soluções. Eles também procuram os reguladores para discutir as regras que devem ser usadas.

IA que lidera pelo exemplo

Enquanto o relatório Mozilla 2022 Internet Health mostra uma imagem bastante sombria da IA, ampliando os problemas que o mundo sempre teve, a empresa também destaca os projetos de IA construídos e projetados para uma boa causa.

Por exemplo, o trabalho da Drivers Cooperative na cidade de Nova York, um aplicativo que é usado – e de propriedade – por mais de 5.000 motoristas de caronas compartilhadas, ajuda os trabalhadores de gigs a ganhar uma agência real no setor de caronas compartilhadas.

Outro exemplo é uma empresa de propriedade de negros em Maryland chamada Melalogic, que está fazendo crowdsourcing de imagens de pele escura para melhor detecção de câncer e outros problemas de pele em resposta a sérios preconceitos raciais no aprendizado de máquina para dermatologia.

“Existem muitos exemplos em todo o mundo de sistemas de IA sendo construídos e usados ​​de maneira confiável e transparente”, disse Larsen.

Table of Contents