Opinião

Para entender os riscos apresentados pela IA, siga o dinheiro
Repetidas vezes, os principais cientistas, tecnólogos e filósofos fizeram suposições espetacularmente terríveis sobre a direção da inovação. Mesmo Einstein não ficou imune...
Por Tim O'Reilly, Ilan Strauss, Mariana Mazzucato e Rocha Rufus - 12/04/2024


Stock

Repetidas vezes, os principais cientistas, tecnólogos e filósofos fizeram suposições espetacularmente terríveis sobre a direção da inovação. Mesmo Einstein não ficou imune, afirmando: “Não há a menor indicação de que a energia nuclear algum dia será obtida”, apenas dez anos antes de Enrico Fermi concluir a construção do primeiro reator de fissão em Chicago. Pouco depois, o consenso mudou para o receio de um holocausto nuclear iminente.

Da mesma forma, os especialistas de hoje alertam que um dia do juízo final da inteligência artificial geral (AGI) é iminente. Outros retrucam que os grandes modelos de linguagem (LLMs) já atingiram o auge de seus poderes.

É difícil argumentar contra a influente tese de David Collingridge de que tentar prever os riscos representados pelas novas tecnologias é uma tarefa tola. Dado que os nossos principais cientistas e tecnólogos estão normalmente tão enganados sobre a evolução tecnológica, que hipóteses têm os nossos decisores políticos de regular eficazmente os riscos tecnológicos emergentes da inteligência artificial (IA)?

Deveríamos prestar atenção ao alerta de Collingridge de que a tecnologia evolui de forma incerta. No entanto, existe uma classe de risco de IA que geralmente pode ser conhecida antecipadamente. Trata-se de riscos decorrentes do desalinhamento entre os incentivos económicos de uma empresa para lucrar de uma forma específica com o seu modelo proprietário de IA e os interesses da sociedade na forma como o modelo de IA deve ser rentabilizado e implementado.

Albert Einstein sentado em sua mesa com papéis de marcação de tubos.
Fotografia de Albert Einstein em seu escritório na Universidade de Princeton, Nova Jersey, tirada por Roman Vishniac em 1942. Coleção Magnes de Arte e Vida Judaica/Flickr , CC BY-NC-SA

A forma mais segura de ignorar esse desalinhamento é concentrar-nos exclusivamente em questões técnicas sobre as capacidades dos modelos de IA, divorciadas do ambiente socioeconômico em que estes modelos irão operar e serão concebidos para fins lucrativos.

Concentrar-se nos riscos econômicos da IA não se trata simplesmente de prevenir o “monopólio”, a “autopreferência” ou o “domínio das grandes tecnologias”. Trata-se de garantir que o ambiente econômico que facilita a inovação não incentiva riscos tecnológicos difíceis de prever, à medida que as empresas “movem-se rapidamente e quebram coisas” numa corrida pelo lucro ou pelo domínio do mercado.

Trata-se também de garantir que o valor da IA seja amplamente partilhado, evitando a consolidação prematura. Veremos mais inovação se as ferramentas emergentes de IA forem acessíveis a todos, de modo que possa surgir um ecossistema disperso de novas empresas, start-ups e ferramentas de IA.

A OpenAI já está se tornando um player dominante, com US$ 2 bilhões (£ 1,6 bilhão) em vendas anuais e milhões de usuários. A sua loja GPT e as ferramentas de desenvolvimento precisam devolver valor a quem as cria, a fim de garantir que os ecossistemas de inovação permaneçam viáveis e dispersos.

Ao interrogar cuidadosamente o sistema de incentivos econômicos subjacentes às inovações e como as tecnologias são monetizadas na prática, podemos gerar uma melhor compreensão dos riscos, tanto econômicos como tecnológicos, alimentados pela estrutura de um mercado. A estrutura do mercado não é simplesmente o número de empresas, mas a estrutura de custos e os incentivos econômicos no mercado que decorrem das instituições, das regulamentações governamentais adjacentes e do financiamento disponível.

Degradação da qualidade para maior lucro

É instrutivo considerar como as tecnologias algorítmicas que sustentaram as antigas plataformas agregadoras (pense na Amazon, no Google e no Facebook, entre outras), inicialmente implementadas para beneficiar os utilizadores, foram eventualmente reprogramadas para aumentar os lucros da plataforma.

Os problemas fomentados pelas redes sociais, pela pesquisa e pelos algoritmos de recomendação nunca foram uma questão de engenharia, mas sim uma questão de incentivos financeiros (de crescimento dos lucros) que não se alinham com a implementação segura, eficaz e equitativa dos algoritmos. Como diz o ditado : a história não se repete necessariamente, mas rima.

Para compreender como as plataformas atribuem valor a si mesmas e o que podemos fazer em relação a isso, investigámos o papel dos algoritmos, e a configuração informativa única dos mercados digitais, na extração das chamadas rendas econômicas dos utilizadores e produtores nas plataformas. Na teoria económica, as rendas são “lucros supernormais” (lucros que estão acima do que seria alcançável num mercado competitivo) e refletem o controlo sobre alguns recursos escassos.

É importante ressaltar que as rendas são um puro retorno à propriedade ou a algum grau de poder de monopólio, em vez de um retorno obtido pela produção de algo num mercado competitivo (como muitos produtores que fabricam e vendem automóveis). Para as plataformas digitais, extrair rendas digitais normalmente implica degradar a qualidade da informação mostrada ao utilizador, com base no facto de este “possuir” acesso a uma massa de clientes.

Por exemplo, os milhões de utilizadores da Amazon confiam nos seus algoritmos de pesquisa de produtos para lhes mostrar os melhores produtos disponíveis para venda, uma vez que não conseguem inspecionar cada produto individualmente. Esses algoritmos economizam tempo e dinheiro para todos: ajudando os usuários a navegar por milhares de produtos para encontrar aqueles com a mais alta qualidade e o menor preço, e expandindo o alcance de mercado dos fornecedores por meio da infraestrutura de entrega da Amazon e da imensa rede de clientes.

Estas plataformas tornaram os mercados mais eficientes e proporcionaram um enorme valor tanto aos utilizadores como aos fornecedores de produtos. Mas, com o tempo, um desalinhamento entre a promessa inicial de fornecer valor ao utilizador e a necessidade de expandir as margens de lucro à medida que o crescimento abranda levou a um mau comportamento da plataforma. O negócio de publicidade da Amazon é um exemplo disso.

Publicidade da Amazon

Em nossa pesquisa na Amazon, descobrimos que os usuários ainda tendem a clicar nos resultados dos produtos no topo da página, mesmo quando não são mais os melhores resultados, mas sim canais de publicidade paga. A Amazon abusa da confiança habitual que os usuários depositam em seus algoritmos e, em vez disso, aloca a atenção e os cliques dos usuários para informações patrocinadas de qualidade inferior, das quais lucra imensamente.

Descobrimos que, em média, os produtos patrocinados (anúncios) mais clicados eram 17% mais caros e 33% mais baixos, de acordo com os próprios algoritmos de otimização de qualidade, preço e popularidade da Amazon. E como os fornecedores de produtos devem agora pagar pela classificação do produto que obtiveram anteriormente através da qualidade e reputação do produto, os seus lucros diminuem à medida que os da Amazon sobem e os preços aumentam à medida que parte dos custos é transferida para os clientes.

A Amazon é um dos exemplos mais marcantes de uma empresa que se afastou da sua missão “virtuosa” original (“ser a empresa mais centrada no cliente do planeta”) em direção a um modelo de negócio extrativo. Mas está longe de estar sozinho.

Google, Meta e praticamente todos os outros grandes agregadores online passaram, ao longo do tempo, a preferir os seus interesses econômicos à sua promessa original aos seus utilizadores e aos seus ecossistemas de fornecedores de conteúdos e produtos ou desenvolvedores de aplicações. O escritor e ativista de ficção científica Cory Doctorow chama isso de “enshittificação” das plataformas Big Tech.

Mas nem todos os aluguéis são ruins. Segundo o economista Joseph Schumpeter, as rendas recebidas por uma empresa pela inovação podem ser benéficas para a sociedade. As plataformas da Big Tech avançaram através de avanços algorítmicos altamente inovadores e superiores. Os atuais líderes de mercado em IA estão fazendo o mesmo.

Assim, embora as rendas schumpeterianas sejam reais e justificadas, ao longo do tempo e sob pressão financeira externa, os líderes de mercado começaram a usar o seu poder de mercado algorítmico para capturar uma maior parcela do valor criado pelo ecossistema de anunciantes, fornecedores e utilizadores, a fim de manter o lucro crescente.

As preferências do usuário foram rebaixadas em importância algorítmica em favor de conteúdo mais lucrativo. Para plataformas de redes sociais, tratava-se de conteúdo viciante para aumentar o tempo gasto na plataforma a qualquer custo para a saúde do usuário. Entretanto, os principais fornecedores de valor para a sua plataforma – os criadores de conteúdos, proprietários de websites e comerciantes – tiveram de entregar uma maior parte dos seus retornos ao proprietário da plataforma. No processo, os lucros e as margens de lucro ficaram concentrados nas mãos de algumas plataformas, dificultando a inovação por parte de empresas externas.

Uma plataforma que obriga o seu ecossistema de empresas a pagar taxas cada vez mais elevadas (em troca de nada de valor proporcional em ambos os lados da plataforma) não pode ser justificada. É um sinal vermelho que a plataforma tem um certo grau de poder de mercado que está a explorar para extrair rendas não merecidas. As divulgações trimestrais mais recentes da Amazon (quarto trimestre de 2023) mostram um crescimento anual nas vendas online de 9%, mas um crescimento nas taxas de 20% (serviços de vendedores terceirizados) e 27% (vendas de publicidade).

O que é importante lembrar no contexto do risco e da inovação é que esta implantação rentável de tecnologias algorítmicas pelas Big Tech não é um risco incognoscível, conforme identificado por Collingridge. É um risco económico previsível. A procura do lucro através da exploração de recursos escassos sob o seu controlo é uma história tão antiga como o próprio comércio.

As salvaguardas tecnológicas sobre os algoritmos, bem como a divulgação mais detalhada sobre a forma como as plataformas monetizavam os seus algoritmos, podem ter impedido que tal comportamento ocorresse. Os algoritmos tornaram-se guardiões do mercado e alocadores de valor, e estão agora a tornar-se produtores e árbitros de conhecimento.

Riscos representados pela próxima geração de IA

Os limites que impomos aos algoritmos e aos modelos de IA serão fundamentais para orientar a atividade econômica e a atenção humana para fins produtivos. Mas quão maiores são os riscos para a próxima geração de sistemas de IA? Eles moldarão não apenas a informação que nos é mostrada, mas também a forma como pensamos e nos expressamos. A centralização do poder da IA nas mãos de algumas entidades com fins lucrativos que provavelmente enfrentarão futuros incentivos econômicos por mau comportamento é certamente uma má ideia.

Felizmente, a sociedade não está impotente na definição dos riscos econômicos que invariavelmente surgem após cada nova inovação. Os riscos decorrentes do ambiente económico em que ocorre a inovação não são imutáveis. A estrutura do mercado é moldada pelos reguladores e pelas instituições algorítmicas de uma plataforma (especialmente os seus algoritmos que fazem alocações semelhantes às do mercado). Juntos, estes fatores influenciam a força dos efeitos de rede e das economias de escala e de âmbito num mercado, incluindo as recompensas pelo domínio do mercado.

Mandatos tecnológicos como a interoperabilidade , que se refere à capacidade de diferentes sistemas digitais trabalharem juntos sem problemas; ou “side-loading”, a prática de instalar aplicações de outras fontes que não a loja oficial de uma plataforma, moldaram a fluidez da mobilidade dos utilizadores dentro e entre mercados e, por sua vez, a capacidade de qualquer entidade dominante explorar de forma duradoura os seus utilizadores e ecossistema. Os protocolos da Internet ajudaram a manter a Internet aberta em vez de fechada. O software de código aberto permitiu-lhe escapar do domínio do monopólio dominante da era do PC. Qual o papel que a interoperabilidade e o código aberto podem desempenhar para manter a indústria da IA num mercado mais competitivo e inclusivo?

A divulgação é outra ferramenta poderosa de formação de mercado. As divulgações podem exigir que as empresas de tecnologia forneçam informações e explicações transparentes sobre seus produtos e estratégias de monetização. A divulgação obrigatória do carregamento de anúncios e outras métricas operacionais pode ter ajudado a evitar que o Facebook, por exemplo, explorasse a privacidade dos seus utilizadores, a fim de maximizar o investimento em publicidade proveniente da recolha dos dados de cada utilizador.

Mas a falta de portabilidade de dados e a incapacidade de auditar de forma independente os algoritmos do Facebook fizeram com que o Facebook continuasse a beneficiar do seu sistema de vigilância por mais tempo do que deveria. Hoje, a OpenAI e outros fornecedores líderes de modelos de IA recusam-se a divulgar os seus conjuntos de dados de formação, enquanto surgem questões sobre violação de direitos de autor e quem deveria ter o direito de lucrar com trabalhos criativos auxiliados por IA. A divulgação e os padrões tecnológicos abertos são passos fundamentais para tentar garantir que os benefícios destas plataformas emergentes de IA sejam partilhados tão amplamente quanto possível.

A estrutura do mercado e o seu impacto sobre “quem recebe o quê e porquê” evolui à medida que evolui a base tecnológica para a forma como as empresas podem competir num mercado. Portanto, talvez seja altura de desviarmos o nosso olhar regulamentar da tentativa de prever os riscos específicos que podem surgir à medida que tecnologias específicas se desenvolvem. Afinal, nem mesmo Einstein poderia fazer isso.

Em vez disso, deveríamos tentar recalibrar os incentivos econômicos que sustentam as inovações atuais, afastando-nos das utilizações arriscadas da tecnologia de IA e em direção a algoritmos de IA abertos e responsáveis que apoiem e distribuam valor de forma equitativa. Quanto mais cedo reconhecermos que os riscos tecnológicos são frequentemente uma consequência de incentivos económicos desalinhados, mais rapidamente poderemos trabalhar para evitar a repetição dos erros do passado.

Não nos opomos a que a Amazon ofereça serviços de publicidade a empresas no seu mercado de terceiros. Uma quantidade adequada de espaço publicitário pode, de fato, ajudar empresas ou produtos menos conhecidos, com ofertas competitivas, a ganhar força de forma justa. Mas quando a publicidade substitui quase inteiramente os resultados dos produtos orgânicos mais bem classificados, a publicidade torna-se um dispositivo de extração de renda para a plataforma.

Um porta-voz da Amazon disse:

Discordamos de uma série de conclusões tiradas nesta pesquisa, que deturpam e exageram os dados limitados que utiliza. Ignora que as vendas de vendedores independentes, que estão a crescer mais rapidamente do que as da própria Amazon, contribuem para as receitas dos serviços, e que muitos dos nossos serviços de publicidade não aparecem na loja.

A Amazon é obcecada em facilitar a vida dos clientes e grande parte disso é garantir que os clientes possam encontrar e descobrir de forma rápida e conveniente os produtos que desejam em nossa loja. Os anúncios são parte integrante do varejo há muitas décadas e sempre que os incluímos, eles são claramente marcados como 'Patrocinados'. Fornecemos uma combinação de resultados de pesquisa orgânica e patrocinada com base em fatores como relevância, popularidade entre os clientes, disponibilidade, preço e velocidade de entrega, juntamente com filtros de pesquisa úteis para refinar seus resultados. Também investimos milhares de milhões em ferramentas e serviços para os vendedores, para os ajudar a crescer, e serviços adicionais, como publicidade e logística, são totalmente opcionais.


Tim O'Reilly
Professor visitante de prática no UCL Institute for Innovation and Public Purpose, UCL

Ilan Strauss
Chefe de Pesquisa em Economia Digital, UCL

Mariana Mazzucato
Professor de Economia da Inovação e Valor Público e Diretor Fundador da UCL IIPP, UCL

Rocha Rufus
Pesquisador, Instituto de Inovação e Propósito Público, UCL

As opiniões expressas neste artigo são de responsabilidade exclusiva do(s) autor(es), não refletindo necessariamente a posição institucional do maisconhecer.com