Um livro rápido, e bastante prático quanto ao que fazer num momento em que parece que uma nova ordem mundial está de ser formada: BigTechs maiores que a maior parte dos países, agindo como os novos governantes mundiais.
Gary Marcus é um dos principais críticos de tecnologia, com conhecimento de causa - um especialista em inteligência artificial e acadêmico da área que parece conseguir se manter ileso aos encantos financeiros da IA: pensamento de curto prazo e enriquecimento rápido através de especulação financeira, ao invés de uma visão de longo prazo no desenvolvimento de IA que possa ser minimamente confiável para a população.

O próprio autor há alguns dias postou como, rapidamente, o risco apresentado no livro tem se tornado uma realidade. As premissas do livro:
Eles estão especulando loucamente com LLMs e AGI, mesmo que problemas com alucinações falta de raciocínio continuem persistindo mesmo após anos de estudo
Governos tem acreditado demais nessa história, ao mesmo tenho que são completamente influenciadas por estas empresas, e pretendem seguir o direcionamento delas de perto.
Nós vamos acabar com pouca ou nenhuma regulação de IA, apenas dos riscos gigantescos e confirmados de crimes digitais, desinformação, viés algorítmico, confiança exagerada em sistemas falhos, etc
Nossa única esperança como cidadãos seria protestar ou até mesmo boicotar IA generativa
Paris Summit AI, que ocorreu neste início de Fevereiro demonstrou claramente o alinhamento dos governos com a agenda aceleracionista da BigTechs: pressão por redução de regulação, com a justificativa de segurança nacional ou impedimento da inovação. O discurso é o mesmo: “vamos ficar para trás se não acelerarmos agora”. É o mesmo tipo de tática que empresas de cigarro fizeram há algumas décadas, fazendo lobby governamental, bancando pesquisas e campanhas políticas para reduzir o escrutínio do público.
Hoje, uma indústria tem usado LLMs ao extremo para ampliar seu alcance com grande sucesso: Crimes digitais. Seja através de desinformação política, redes de extorsão com catfishing, golpes digitais com deepfakes, LLMs são boas o suficiente para que agentes mal intencionados podem explorar vulnerabilidades sociais e ganhar muito dinheiro. Já são inúmeros casos, que não param de crescer.
O autor, que escreve há anos sobre como LLMs não são confiáveis, apresenta muitos argumentos para estarmos preocupados com o uso de inteligência artificial, que precisam ser mitigados de alguma forma. O autor apresenta inúmeros riscos reais da IA, Muitos dos quais já foram tratados inúmeras vezes nesse blog, por outros autores. Entre eles:
Guerra de desinformação automatizada
Manipulação de mercados
Alucinações que causam problemas reais (saúde, carreira, produtos)
Deepfakes não consensuais (pornografia, campanha de difamação)
Exploração de vulnerabilidades de segurança
Viés digital e Discriminação
Privacidade e Vazamento de informações
Roubo de Propriedade intelectual
Confiança em sistemas não confiáveis
Custos ambientais
Produtos mal acabados e cheios de vulnerabilidades: esta é a realidade do mercado atual. Com a desculpa aceleracionista existencial (“a liderança mundial está em jogo”) - nos tornamos cobaias de uma tecnologia não confiável e que pode colocar em risco a vida das pessoas. Na busca por dinheiro especulativo, que paga o preço é a população.
Já é mais do que confirmado o fato de que LLMs dependem de dados com propriedade intelectual não consentida. Essa é a forma política de dizer: Só existe LLM com dados roubados. Artistas e autores estão sendo explorados através de suas obras, que são usadas para treinar modelos generativos sem que as obras sejam devidamente licenciadas para o uso. Este talvez seja o primeiro campo de batalha contra Bigtechs.
Até mesmo Sam Altman, depondo na comissão européia, disse que não existe OpenAI e ChatGPT sem o uso de propriedade intelectual ilegalmente. Agora cabem aos governos cobrar a responsabilização pelos atos dessas empresas. É o mesmo motivo do porquê nem mesmo modelos como DeepSeek R1 abrem o dataset utilizado no treinamento de seus modelos opensource. Todas as empresas tem culpa no cartório.
Transparência, Regulação e Supervisão
O livro trata o tema de controle e regulação de BigTechs como crucial para garantir o desenvolvimento de IA segura e confiável.
À medida que a inteligência artificial (IA) continua a remodelar nosso mundo, a questão de como regular efetivamente os gigantes da tecnologia tornou-se cada vez mais urgente. Essas empresas são simplesmente grandes demais para serem reguladas? Os paralelos com outras indústrias sugerem que não, mas os desafios únicos apresentados pela IA e pelas grandes empresas de tecnologia exigem uma abordagem diferenciada.
Assim como a indústria do tabaco foi excluída do lobby devido ao seu conflito com os interesses de saúde pública, as grandes empresas de tecnologia frequentemente priorizam o lucro em detrimento do bem-estar social. Diferentemente das empresas de telecomunicações, que atuam como condutores neutros de comunicação, os gigantes das mídias sociais e da tecnologia moldam ativamente nossas experiências digitais:
Algoritmos de timeline otimizam para engajamento e polarização
Conteúdo inflamatório é amplificado para impulsionar a receita de anúncios
Empresas controlam dados dos usuários e selecionam interações
O livro A Máquina do Caos, de Max Fisher, descrevem inúmeros casos de como BigTech consegue manipular nossa percepção do mundo, e como estamos sujeitos à sua influencia. Os interesses das grandes empresas de tecnologia divergem significativamente do bem-estar público.
A Necessidade de uma Governança Abrangente da IA
Gary Marcus e Amy Webb defenderam o estabelecimento de estruturas globais de governança da IA. Marcus propõe uma Agência de IA modelada semelhante ao FCC e FDA, ainda que a implementação de tais iniciativas enfrenta desafios significativos:
As nações relutam em ceder soberania a decisões internas, apesar de estarem cedendo sua autonomia às empresas de tecnologia
Empresas de IA ameaçaram retirar serviços se forem excessivamente reguladas (por exemplo, os comentários de Sam Altman sobre as regulamentações da UE)
Apesar desses obstáculos, uma abordagem global coordenada para a governança da IA permanece crucial.
O Argumento a Favor da Regulamentação
Contrariamente à crença popular, regulamentações bem elaboradas podem beneficiar tanto a sociedade quanto as empresas:
A clareza regulatória reduz o caos e facilita o planejamento de longo prazo
Barreiras de entrada mais altas podem proteger empresas estabelecidas da concorrência (pessoalmente acredito que esse é o motivo de termos Sam Altman defendendo regulação nos EUA)
Abraçar a regulamentação pode melhorar a percepção pública das empresas de IA
Os marcos regulatórios atuais muitas vezes ficam aquém do necessário. Por exemplo, carros autônomos operados por empresas como a Waymo não podem receber multas de trânsito quando violam leis, destacando a necessidade de estruturas legais atualizadas. Nem quando atropelam uma pessoa, nem quando bloqueiam o tráfego.
Neste sentido acredito que o Brasil está mais preparado para lidar com a situação. Apesar de ainda precisar avançar muito, já temos um entendimento melhor quanto ao impacto e responsabilidade de empresas de tecnologia e plataforma.
Para garantir que a IA beneficie a sociedade em vez de servir apenas aos interesses corporativos, o engajamento público e o ativismo são essenciais. Ao nos organizarmos e defendermos o desenvolvimento responsável da IA, podemos trabalhar para evitar as armadilhas vistas na evolução das mídias sociais.
Este livro completa uma jornada interessante de letramento em IA, e acredito que com ele me sinto bastante capaz de discutir de maneira ainda mais profunda os limites dessa tecnologia.
Recomendo a leitura.
Comments