AICEP

Mundo das ComunicaçõesO emocionante e perigoso mundo da linguagem de inteligência artificial

O emocionante e perigoso mundo da linguagem de inteligência artificial

À medida que a pandemia começou a afetar (e infetar) o mundo, no ano passado, as empresas começaram a recorrer a todas as ferramentas à sua disposição – incluindo as de inteligência artificial – para responder aos novos desafios e aos clientes com segurança e eficácia. Uma pesquisa da KPMG de 2021 revelou que metade das organizações acelerou o uso de IA em resposta à COVID-19, incluindo 72% da indústria, 57% das empresas de tecnologia e 53% dos retalhistas.

A maioria está feliz com os resultados, pelo menos segundo este documento. Oitenta e dois por cento dos entrevistados concorda com o facto de que a IA tem sido útil para a sua organização durante a pandemia e a maioria diz que está a obter ainda mais valor que o previsto. Quase todos referem que o uso mais amplo da IA tornaria a sua organização mais eficiente e 85% deseja que a sua empresa acelere a adoção de ferramentas de inteligência artificial.

Ainda assim, o sentimento não é totalmente positivo. Isto porque, apesar de estarem dispostos a abraçar este novo conceito de inteligência, muitos executivos acreditam que o seu sector está a avançar demasiado rápido na sua adoção. Ou seja, defendem as ferramentas de inteligência artificial, mas, ao mesmo tempo, confessam que são mais um “hype”, uma novidade, que uma realidade.

A IA e as interpretações erróneas

Andrade da Silva, docente e investigador no campo da inteligência artificial aplicada à gestão empresarial, admite que a novidade desta tecnologia permitiu interpretações erróneas. «Na verdade, a maioria dos empresários não sabe exatamente o que pode ou não esta tecnologia fazer e, mais importante, quanto tempo demora para obter resultados, quando aplicada a uma escala empresarial». Uma afirmação sustentada por mais um dado da KPMG: embora 79% dos entrevistados diga que a IA é pelo menos moderadamente funcional na sua organização, apenas 43% diz ser totalmente funcional em escala. Além disso, parece ainda ser comum encontrar executivos que pensam na IA como algo a ser comprado – como uma nova máquina – para entregar resultados imediatos. E embora possam ter tido algum sucesso com inteligência artificial – geralmente pequenas provas de conceito – muitas organizações aprenderam que escalá-la para o nível empresarial pode ser mais desafiador. «Requer acesso a dados limpos e bem organizados. Requer uma infraestrutura de armazenamento de dados robusta, especialistas no assunto para ajudar a criar dados, skills sofisticadas de ciência da computação. Para além de requerer o envolvimento de toda a empresa, que esbarra muitas vezes em aspetos culturais que, todos sabemos, são as barreiras mais difíceis de transpor». Andrade da Silva deixa ainda escapar que, muito provavelmente, alguns players poderão ter exagerado no potencial da IA ou, pelo menos, não evidenciado o esforço necessário para obter os resultados previstos.

O investigador diz ainda que uma “luta” neste campo é a ausência de uma estrutura legal e regulatória estabelecida para orientar o uso da inteligência artificial. “Muitos empresários não têm uma visão clara do que a sua organização está a fazer para governar a IA, ou que regulamentações governamentais podem surgir neste campo. Compreensivelmente, estão preocupados com os riscos associados, incluindo o desenvolvimento de casos de uso hoje que os reguladores possam eliminar amanhã, desperdiçando tempo, dinheiro e recursos”. Aliás, na pesquisa da consultora, a grande maioria dos executivos defende que o governo deve desempenhar um papel na regulamentação da tecnologia de IA.

O poder da comunicação da IA

Em maio, o CEO da Google, Sundar Pichai, anunciou uma nova e impressionante ferramenta: um sistema de IA chamado LaMDA que pode conversar com os utilizadores sobre qualquer assunto. Literalmente qualquer assunto. Numa primeira fase, a Google pretende integrar o LaMDA no seu motor de busca principal, no seu assistente de voz e na sua coleção de software na nuvem (Gmail, Docs e Drive). Contudo, o objetivo final, disse Pichai, é criar uma interface de conversação que permita às pessoas recuperar qualquer tipo de informação – texto, visual, áudio – em todos os produtos da Google. Tudo através da voz.

No entanto, o MIT Technology Review lança um alerta. Estes algoritmos de aprendizagem, conhecidos como modelos de LLM (Large Language Model, ou seja, um algoritmo de deep-learning treinado para lidar com enormes quantidades de dados de texto), «terão embutidas ideias racistas, sexistas e abusivas, associando categorias como médicos com homens e enfermeiras com mulheres; boas palavras com brancos e más palavras com negros», lê-se na MIT Technology Review. “Devido à sua fluência, facilmente confundem as pessoas fazendo-as pensar que um humano escreveu as frases, o que os especialistas alertam que pode permitir a produção em massa de desinformação”.

Não é apenas o Google que está a implementar esta tecnologia. Os modelos de linguagem de maior perfil até agora foram GPT-2 e GPT-3 da OpenAI, capazes de criar excertos de texto notavelmente convincentes ou mesmo terminar composições musicais ou código de computador. A Microsoft licenciou o GPT-3 para incorporar em produtos ainda não anunciados. O Facebook desenvolveu os seus próprios LLM para tradução e moderação de conteúdos. E as startups estão a criar dezenas de produtos e serviços com base nos modelos dos gigantes tecnológicos. Em breve, todas as nossas interações digitais – quando enviarmos um e-mail, pesquisarmos ou publicarmos nas redes sociais – serão filtradas por intermédio de LLM.

Projetos para um bem comum

Segundo a MIT Technology Review, mais de quinhentos pesquisadores de todo o mundo estão a trabalhar no denominado ‘BigScience’, que pretende explorar as capacidades e limitações destes modelos. O projeto é liderado pela Huggingface, uma startup que adota uma abordagem de ‘ciência aberta’ para entender o processamento de linguagem natural (PNL), procurando construir um LLM de código aberto que servirá como um recurso compartilhado para a comunidade científica. Mas como não há fome que não traga fartura, no mesmo mês em que o BigScience iniciou as suas atividades, uma startup chamada Cohere, de ex-pesquisadores do Google, anunciou que consegue aplicar LLM a qualquer empresa com uma única linha de código. Aliás, segundo a MIT, a Cohere é apenas uma das várias startups e iniciativas que agora querem levar LLM aos mais diversos sectores. Há também a Aleph Alpha, uma startup com sede na Alemanha que quer criar um GPT-3 alemão; há ainda outro projecto ainda sem nome iniciado por vários ex-pesquisadores da OpenAI; ou ainda a iniciativa de código aberto Eleuther, que lançou recentemente o GPT-Neo, uma reprodução gratuita (e um pouco menos poderosa, dizem os especialistas) do GPT-3.

Mas é a lacuna entre o que estes algoritmos de deep-learning treinados para lidar com enormes quantidades de dados de texto são e o que aspiram ser que preocupa um número crescente de pesquisadores, até porque os LLM são “apresentados” como as tecnologias de preenchimento automático mais poderosas do mundo. Ao “ingerir” milhões de frases, parágrafos e até mesmo excertos de diálogo, aprendem os padrões estatísticos e constroem conversas numa ordem particularmente sensata. Isso significa que os LLM podem aprimorar certas atividades. Por exemplo, são excelentes para criar chatbots mais interativos e fluidos de conversação que seguem um guião bem estabelecido, apesar de não entenderem realmente o que estão a ler ou dizer.

Uma ameaça?

Claro que não será difícil, por isso, imaginar que modelos como o GPT-3 possam ser usados ​​para criar ensaios, tweets ou notícias falsas ou enganosas. Já este ano, a Universidade de Stanford lançava um documento no qual fazia a comparação destes modelos de linguagem com a manipulação de imagens. O problema não será propriamente o programa ou o modelo, mas o uso que deles fazemos, tal como o programa de edição de fotos Photoshop, que pode ser usado para manipular imagens. Segundo os investigadores desta universidade, é preciso entender melhor as economias da desinformação automatizada em comparação com a desinformação gerada por humanos antes de entender o quanto a GPT-3 e todos estes modelos representam uma ameaça.

No documento da Universidade de Stanford, os investigadores acreditam que os modelos futuros não refletirão apenas os dados, mas também os nossos valores. E, tal como diz o MIT, também esta universidade fala em comportamentos indesejáveis, incluindo preconceitos raciais, de género ou religiosos. A questão é que parece não haver uma solução mágica para resolver todas estas questões, até porque o uso da linguagem apropriada varia de acordo com o contexto e culturas. Stanford defende a necessidade de haver mais pesquisas interdisciplinares sobre quais os valores que devem ser imbuídos nestes modelos e como fazê-lo.

Podem os chatbots ser demasiado pessoais?

Foquemo-nos no exemplo dos chatbots. Hoje, estamos cercados por máquinas e programas que fazem muito do nosso trabalho de uma forma mais fácil, ultrapassando a capacidade humana. Seja a realizar tarefas industriais complexas ou a navegar na Internet, a tecnologia de programação moderna revolucionou todas as esferas da vida e dos negócios. Os chatbots estão à nossa volta há vários anos, sendo capazes de conversar com humanos nas redes sociais e em diferentes canais digitais usando linguagem natural. Ora, os chatbots usam os tais sistemas de aprendizagem de máquina, não estando apenas habilitados a responder a perguntas, mas tendo já a capacidade de aprender a responder apropriadamente usando inferência probabilística de grandes conjuntos de dados com supervisão humana. Esses agentes de conversação com tecnologia de IA começaram agora a fornecer um toque mais pessoal, como reservar voos, tocar música e até mesmo ajudar a equipa médica a diagnosticar problemas médicos graves.

E apesar de todas as questões levantadas pelo MIT ou Stanford, a verdade é que o mundo e os negócios esperam que esse toque pessoal continue a aumentar à medida que mais e mais pessoas estão a adotar chatbots nas suas vidas diárias. Alexa da Amazon, Siri da Apple, Google Home e outros já o estão a fazer, respondendo às dúvidas e solicitações diárias dos utilizadores, como tocar música, desligar e ligar as luzes, ler notícias, proporcionando experiências mais pessoais. Enquanto a IA trabalha nos bastidores, muitas organizações estão ansiosas para aproveitar o potencial dos chatbots de IA para interagir e se envolver diretamente com a sua base de clientes.

A interação humana influenciada por chatbots

“Sem dúvida que o uso de chatbots de IA oferece muitos benefícios. Mas a sua maior humanização pode trazer potenciais perigos. Não estou a falar num colapso da civilização, mas podem fazer uma mudança de paradigma crucial nas formas humanas de interacção e comunicação”, explicou o sociólogo Miguel Macedo.

Liraz Margalit, psicóloga digital citada pelo CMSWire, defende que o cérebro humano tem uma tendência inerente de preferir a simplificação à complexidade, algo que se encaixa na perfeição com o estilo de interação com um chatbot. “Os chatbots têm como premissa interacções mínimas, muitas das quais podem ser resumidas em um emoticon, não requer muito esforço cognitivo. Um chatbot não precisa do envolvimento emocional e da interpretação de pistas não-verbais exigidas pelos humanos, tornando a interacção das pessoas muito mais fácil”, acrescentou Miguel Macedo.

Tudo isto parece andar de mãos dadas com a tendência do cérebro humano para a preguiça cognitiva. “Ao conversarmos de forma reiterada com chatbots, um novo modelo mental será criado no utilizador e como eles interpretam as interações sociais. Embora a interação humana via chatbots possa ser conveniente, pode causar problemas quando as pessoas se tornam viciadas nesta forma de interação de bot”.

Falta o improviso

Todos já lidamos com chatbots. E, muitas vezes, até podemos não ter consciência disso. Isto porque, ao contrário dos humanos, os chatbots não sabem lidar com o improviso e imprevisto. Ou seja, quando uma pergunta ou situação foge dos parâmetros de aprendizagem, “ele” não sabe o que fazer, sendo habitualmente transferido para um agente humano, algo que por vezes escapa ao utilizador.

Podem os chatbots tornar-se demasiado pessoais? Miguel Macedo diz que essa é uma questão típica de uma mudança cultural. “Desde a revolução industrial que temos ‘medo’ de que os robots tomem conta do mundo, que deixe de haver emprego, que passem a ser eles a tomar decisões. Mas, se olharmos com atenção para o que a história nos tem ensinado, a verdade é que a robotização e mecanização trouxe progresso, libertou os recursos humanos para funções bem mais importantes. Claro que houve necessidade de reajustar o mundo de trabalho e vai continuar a haver”.

No entanto, Miguel Macedo também é da opinião que todos estes desenvolvimentos no âmbito da inteligência artificial e a sua integração na sociedade têm de ser criteriosamente ponderados. Como nota final, o sociólogo aconselhou ver o filme Her, de 2013, no qual o escritor Theodore desenvolve uma relação de amor com o novo sistema operacional do seu PC. Theodore acaba por se apaixonar pela voz deste programa, uma entidade intuitiva e sensível chamada Samantha. O filme acabaria por ganhar o Óscar de Melhor Argumento Original.

Como curiosidade, o primeiro Chatbot chamava-se Eliza e foi desenvolvido nos anos sessenta do século XX. Um professor do MIT criou um programa que poderia interagir com as pessoas como um psicoterapeuta faria. Parece muito ambicioso e sofisticado para esse período de tempo, mas o que Eliza basicamente fazia era repetir o que seu parceiro de conversa estava a dizer, reformulando o conteúdo como uma pergunta. A Eliza não tinha ideia do contexto e não entendia o conteúdo. Mas, graças a um padrão inteligente e programação de palavras-chave, a conversa parecia realista. Afinal, não é papel de um psicoterapeuta fazer perguntas? Ironicamente, apesar de a interação ser superficial, alguns utilizadores do programa conectaram-se com a Eliza, começando a desenvolver um vínculo emocional com “ela”.

Setembro 2021

Business IT

Foto de Pixabay no Pexels

NEWSLETTER

Subscreva a nossa Newsletter e fique a par das últimas novidades das comunicações no universo da lusofonia.