Notice: A função _load_textdomain_just_in_time foi chamada incorretamente. O carregamento da tradução para o domínio mh-magazine foi ativado muito cedo. Isso geralmente é um indicador de que algum código no plugin ou tema está sendo executado muito cedo. As traduções devem ser carregadas na ação init ou mais tarde. Leia como Depurar o WordPress para mais informações. (Esta mensagem foi adicionada na versão 6.7.0.) in /home/storage/2/18/06/comunitarismo/public_html/wp-includes/functions.php on line 6121
Inteligência Artificial: Limitada na Compreensão Profunda – Comunitarismo Brasil

Inteligência Artificial: Limitada na Compreensão Profunda

Inteligência Artificial: Limitada na Compreensão Profunda

Quando surgiu a Wikipédia, aqueles de nós que lemos a Trilogia da Fundação, de Isaac Asimov, comemoraram a criação de um repositório de conhecimento que se aproximava da enciclopédia galáctica imaginada pelo autor.

O sonho de Jimmy Wales, fundador da plataforma, era concentrar todo o conhecimento humano em um só lugar: a Nupedia, onde apenas cientistas contribuiriam. No entanto, a ideia inicial não prosperou, e então a Wikipédia foi aberta para contribuições de qualquer pessoa interessada em compartilhar informações relevantes.

Esse formato colaborativo fez com que cientistas, cujas publicações se baseiam em evidências concretas, representassem uma pequena parcela dos colaboradores. A natureza inclusiva da plataforma permitiu que pessoas de diversas áreas, incluindo sociologia, filosofia, ciências sociais e literatura, passassem a contribuir ativamente. Hoje, esses perfis representam a ampla maioria dos editores.

Como resultado, a inteligência artificial, que frequentemente utiliza a Wikipédia como fonte de dados, pode refletir as perspectivas mais comumente representadas ali, e não necessariamente as mais profundas ou inovadoras. Por exemplo, visões de esquerda aparecem com muito mais frequência nessas contribuições, o que pode influenciar os modelos de linguagem que dependem de tais fontes para fornecer informações.

Inteligências artificiais, ou modelos de linguagem (LLMs – Large Language Models), têm o propósito de prever a palavra ou frase seguinte com base em padrões linguísticos anteriores. Isso significa que esses modelos se concentram principalmente em padrões de linguagem e frequência de palavras, e não necessariamente na descoberta de correlações ou teorias inovadoras.

Em outras palavras, são ferramentas para processamento de linguagem, e não modelos científicos abrangentes que lidam com grandes conjuntos de equações ou análises matemáticas complexas. A “inteligência” artificial é capaz de sintetizar grandes volumes de informações e relembrar dados de maneira eficiente, mas a criação de ideias verdadeiramente novas e inovadoras ainda está além de seu alcance.

O processo de aprendizado de máquina é essencialmente estatístico, com a IA captando os conceitos e ideias mais frequentes nas fontes disponíveis. Dessa forma, a IA tende a reproduzir as informações mais comuns das últimas décadas, refletindo as tendências predominantes nas publicações, como as de viés de esquerda.

Como exemplo, no verbete sobre a recessão de 1929, contribuí várias vezes para incluir que a verdadeira razão foi o uso da taxa de juros nominal, que, com a deflação de 1929, 1930 e 1932, elevou a taxa de juros real para 11% ao ano, quebrando todos os bancos da época. Esse conteúdo é sistematicamente apagado por economistas keynesianos, que insistem que 1929 foi causado por falta de demanda e não pela percepção equivocada do aumento da taxa de juros real.

Portanto, enquanto a inteligência artificial tem um enorme potencial para consolidar e processar informações, é fundamental compreender suas limitações. O que a IA fornece são sínteses baseadas em frequência e dados existentes, mas a inovação e a descoberta científica profunda continuam sendo um desafio humano.

Seja o primeiro a comentar

Faça um comentário

UA-1184690-14