AICEP

Mundo das ComunicaçõesO que pensam as empresas do ChatGPT?

O que pensam as empresas do ChatGPT?

ChatGPT é uma grande rede de Inteligência Artificial (IA) que procura ajudar utilizadores de todo o mundo a responder a todas as suas perguntas. Porém, alguns temem que possa ser usado para espalhar informações falsas ou prejudicar as conversas online. Esta é a opinião das empresas sobre esta ferramenta.

Sara Furão, engenheira de Inteligência Artificial da Altice Labs

A engenheira de inteligência artificial (‘AI engineer’) da Altice Labs Sara Furão considera, em entrevista à Lusa, que sistemas como o ChatGPT “vão ser cada vez mais importantes” na indústria das telecomunicações.

O ChatGPT, que tem sido um fenómeno viral desde que ficou disponibilizado ao grande público há cerca de dois meses – sistema de inteligência artificial (IA) que permite uma interação semelhante ao de um humano – qtrouxe para a ribalta a importância desta tecnologia em todas as vertentes e é uma realidade que veio para ficar.

“Achamos que cada vez mais este tipo de soluções, agora tem-se falado muito sobre o ChatGPT, vão ser cada vez mais importantes nesta área da indústria das telecomunicações”, afirma Sara Furão,

E porquê? “Porque funciona como uma ponte de comunicação entre os clientes e as empresas e, portanto, através deste tipo de comunicação os clientes podem facilmente questionar sobre as soluções que as empresas oferecem, podem conseguir tirar dúvidas ou resolver questões que tenham”, prossegue a responsável.

No caso da área de atendimento ao cliente, “este tipo de sistemas vai conseguir automatizar certas tarefas que possam ser mais repetitivas e, portanto, deste modo, vai conseguir entregar melhor eficiência”, nomeadamente, por exemplo, no tempo de espera, que irá diminuir, exemplifica.

Para Sara Furão, o sucesso do ChatGPT tem a ver com “aplicabilidade que está a ter”, que está “realmente a gerar este impacto junto do público”.

Isto porque a tecnologia base por trás do ‘chatbot’ “já existia e existem outras soluções” noutras empresas que já estão também a utilizar essa base.

No entanto, o grande destaque passa pela “forma como eles [OpenAI, empresa que desenvolveu o ChatGPT] conseguiram trabalhar com este volume de dados, porque ele sabe muitos temas”, prossegue. O conhecimento do ChatGPT vai até 2021.

No que respeita às vantagens desta solução, “quando usamos o ChatGPT conseguimos perceber a rapidez com que ele consegue entregar-nos a informação e que, antes disso, se calhar teríamos de aceder a várias fontes de informação e fazermos o sumário”, aponta.

A “rapidez e eficiência” na informação disponibilizada pelo ChatGPT e a sua automização nestas tarefas colocou o algoritmo da OpenAI em destaque e “este auge” que está a ter “vai permitir que exista uma capacidade maior” nas novas aplicações de inteligência artificial, diz Sara Furão. Ou seja, acaba por aumentar o nível de exigência deste tipo de soluções.

Este é um tema que “vai continuar a ser bastante procurado” e os riscos que existem já existiam antes de o ChatGPT ter surgido, refere a responsável de IA da Altice Labs.

No entanto, “temos que trabalhar nas técnicas que vão conseguir mitigar esses riscos”, salienta, dando como o exemplo o facto de a OpenAI ter anunciado recentemente uma forma de se conseguir perceber se determinado texto foi gerado utilizando a IA ou não.

Porque o ChatGPT já deu provas de ser ‘bom aluno’, com trabalhos que é difícil distinguir se foi a máquina ou o humano que elaborou e até já passou exames, colocando novos desafios às instituições de ensino.

No caso das universidades, adianta, há aquelas “que estão a ir por um caminho que é abolir o ChatGPT e há outras que estão a aceitar que isto é uma inovação e que vão existir outras [soluções semelhantes] e estão já a trabalhar também em forma de conseguir mitigar este risco e conseguir aferir a capacidade dos alunos por outros métodos”, salienta Sara Furão.

Aliás, a responsável recorda o uso da calculadora nas salas de aula, que no início originou debate.

“Vai continuar a existir esta evolução”, salienta.

Sara Furão sublinha que a IA “desde sempre” tem vindo a ser “parte do ADN” da Altice Labs, “que tem bastantes projetos de investigação” e produtos com inteligência artificial em vários âmbitos, quer na alarmística (previsão de que vai acontecer uma avaria) ou em plataformas para as ‘smart cities’ (cidades inteligentes) ou 5G.

Uma dessas plataformas é a BOTSchool, que “permite a criação de assistentes virtuais de forma simples e mais ágil” e “já temos alguns casos de sucesso dos quais, se calhar, o que poderá ser mais conhecido pelo público é o da operadora Meo, em que já desde há algum tempo que esta plataforma tem vindo a dar resposta a bastantes chamadas que chegam ao ‘call center’” da operadora da Altice Portugal, exemplifica.

“A BOTSchool consegue perceber, fazer o entendimento do tema e neste caso poderá dar uma resposta direta”, resolvendo o problema do cliente.

Aliás, “consegue já fazer uma triagem e dar um atendimento mais personalizado” e depois, caso seja necessário, passa a chamada a operadores humanos.

“Existem provas dadas de que efetivamente é uma mais-valia para nos ajudar nas nossas tarefas de dia a dia”, sublinha Sara Furão.

Portanto, “acredito que com o surgimento destas soluções, cada vez mais vai-se apostar nesta área da inteligência artificial e vão ser desenvolvidos sistemas cada vez mais inteligentes, com capacidade cognitiva maior, mais automação em mais tarefas e em mais setores”, admite.

No caso da Altice Labs, “o nosso compromisso é que vamos continuar a entregar este tipo de soluções e fazer com que estas cheguem às empresas” e “conseguir contribuir para a sociedade de forma a conseguirmos ajudar as pessoas em dificuldades que possam ter no dia a dia e que consigamos simplificar ou mesmo resolver”, sublinha.

Sara Furão, que também já experimentou o ‘chatbot’ da OpenAI que é capaz de ter uma conversa como se de um humano se tratasse, destaca o “grande volume de dados” que é usado nesta solução e que “não tinha sido feito antes”.

No entanto, “temos de ter em atenção que estas tecnologias são baseadas em probabilidade, temos de ter sempre também a consciência de aferir a informação”, alerta.

 

Jorge Graça, Administrador Executivo da NOS

O administrador executivo da NOS Jorge Graça afirma à Lusa que o ChatGPT “tem a vantagem de democratizar” o acesso a esta solução de inteligência artificial (IA) e uma ferramenta que terá um “impacto relevante” ao de Gutenberg.

Numa analogia que leu, e que lhe pareceu acertada, o ChatGPT “é uma ferramenta”, começa por dizer o administrador com o pelouro da tecnologia (CTIO – ‘Chief Technology and Information Office’) da NOS.

“É uma ferramenta que para mim é quase equivalente ou que vai ter um impacto equivalente àquilo que teve Gutenberg e a imprensa, em que nós passámos de uma realidade em que havia bolsas de conhecimento, que havia limitações ao acesso do conhecimento, e agora, de repente, temos uma massificação desse acesso absolutamente de proporções de uma ordem de magnitude se calhar equivalente ao que foi na altura”, salienta Jorge Graça, que antecipa que a IA vai passar a ser cada vez mais sofisticada.

O ChatGPT “é um nivelador, o nível mínimo que agora pusemos subiu imenso”, já que o ‘bot’ ou ChatGPT, fazendo uma analogia com pessoas, “mesmo não conhecendo nada dos meus processos, chega ao pé de mim, sendo uma pessoa que é fluente em múltiplas línguas, é articulado, fala bem, não dá erros, consegue escrever”, ou seja, “o nível mínimo de exigência que se pôs agora subiu de uma maneira completamente assustadora”, considera.

E isso “tem um desafio para nós, para a nossa sociedade, para os empregos que existem, aí é absolutamente gigantesco” porque “havia funções que sobreviviam ou níveis de educação mais baixos ou de formação mais baixa”, entre outros, e “agora o patamar subiu”, aponta.

“Se vamos estar melhores depois disto”, questiona, para depois rematar: “Não tenho a menor dúvida”.

Isto apesar de Jorge Graça admitir que o impacto deste tipo de soluções IA será “desproporcional e desequilibrado em diferentes setores e diferentes segmentos da população” e é algo com que todos vão ter de saber lidar.

“O ChatGPT só funciona se eu funcionar, se as telecomunicações não funcionarem não há ChatGPT para ninguém”, aponta o gestor.

Portanto, “nós vamos ter que incorporar isso (…) e vamos ter sempre a inteligência artificial disponível e a contribuir para os nossos serviços e para todos” e esta será “cada vez mais sofisticada”, sublinha.

O ChatGPT “tem a vantagem de democratizar” a inteligência artificial e dar a ilusão que a “coisa é fácil”, sublinha.

Só para se ter uma ideia, o ChatGPT “foi treinado com 170 biliões de parâmetros, hoje o maior tem 500 milhões, mas agora já existe a discussão de isto não é o número de parâmetros” que se coloca, mas a “maneira como nós configuramos”, refere o CTIO.

E, “apesar de estar muito democratizado, o ChatGPT tem uma utilização muito específica” porque “é um ‘large language model’” [algoritmo de ‘deep learning’], refere. Por exemplo, não consegue identificar o número de pessoas num vídeo.

Agora, “o que eu antecipo e que vai ter muito impacto” é que este tipo de soluções “vão elevar o seu nível”, prossegue, apontando, por exemplo, o caso da medicina, em que o erro humano num exame vai deixar de acontecer.

“O que vai ser exigido (…) é que ele vai ter um grau de confiança”, ou seja, “vamos ter de ter um procedimento que vai dizer assim: ‘Olha muito bem, se isto estiver 90%, eu considero isto como certo’”, quando “qualquer médico nunca tem 100% de certeza”, considera.

“O lado bom disto é que o mal deixa de existir. Se virmos isto pelo lado positivo, ele passa a ter uma ferramenta que o vai impedir ou lhe vai dar a capacidade de não cometer esses erros”, exemplifica.

Por outro lado, o grau de complexidade de tecnologia subjacente nas telecomunicações aumenta de forma exponencial e o setor vai reforçar a utilização da inteligência artificial, os algoritmos vão estar “no caminho de tudo”.

Na NOS, “temos muito boa capacidade de fazer modelos preditivos de manutenção, preditivos de despiste ao cliente”, utilizando a IA, refere.

“Hoje em dia, uma percentagem muito grande dos problemas das pessoas são logo resolvidos quase quando elas me ligam, assim que ela me sinaliza ‘estou com problema’, eu consigo quase inferir logo e enquanto a pessoa ainda está para ser atendida pelo cliente eu já fiz todas as ações necessárias para resolver o problema”, exemplifica Jorge Graça.

Nos últimos 12 meses, a NOS registou uma aceleração dos casos de uso de ‘computer vision’ [treino dos computadores para interpretar e compreender o mundo visual], que permite processar imagem e vídeo para identificar objetos ou o que está a acontecer.

“Nós estávamos a treinar modelos [de IA] quando o iPhone 3 saiu (…) já vamos no 14”, numa altura em que se demorava um mês a treinar um modelo e agora “passado dois minutos” tem-se um modelo treinado, relata o administrador da NOS.

Ainda sobre exemplos de IA na NOS, o CTIO aponta o desenvolvimento de código (processos de desenvolvimento, consulta, fazer analogias) e tudo o que tem a ver com sumarização de informação ou temas de ‘troubleshooting’ [que permite resolver e corrigir problemas].

Sobre a questão da governança, que respeita em como ter garantias de que as interações estão dentro dos parâmetros que se pretende, não existe uma resposta cabal.

“Acho que as pessoas depois exageram um bocadinho nisto, porque hoje já tenho esse problema com os operadores humanos. Tenho muitos operadores de ‘call center’, tenho muitos lojistas, tenho muitos pontos de contacto, era tolo da minha parte assumir que todos eles têm um discurso consistente, que não têm”, refere.

Aliás, a “maior parte dos problemas que eu tenho é quando alguém vai e se torna criativo por si só”, prossegue, salientando que neste caso o ChatGPT “está calibrado para ser relativamente assertivo” e não se afasta muito disso.

“O grande problema” que existe aqui com o ‘bot’ “é que ele é muito fluente, não dá erros, apresenta as coisas de forma convincente, estruturada, mas pode não estar correto”, adverte.

E esse “parece-me ser o principal problema que nós temos aqui e que ainda não temos o problema totalmente resolvido”, salienta Jorge Graça.

 

Pedro Oliveira, Dean da Nova SBE

O ‘dean’ da Nova SBE afirma, em entrevista à Lusa, que “não há nada como experimentar” o ChatGPT para perceber as “potencialidades” e anunciou que a instituição vai realizar conferências em março sobre inteligência artificial (IA).

Questionado sobre o que aconselharia a quem ainda não utilizou a solução de IA da OpenAI, Pedro Oliveira é perentório: “Diria que em primeiro lugar não há nada como experimentar”.

Com um ‘browser’ “qualquer pessoa pode aceder ao ChatGPT”, que foi produzido pela OpenAI – Open Artificial Intelligence – e o “objetivo dessa inteligência dessa empresa é produzir modelos que sejam úteis à sociedade e torná-los acessíveis de forma gratuita e, portanto, nada como as pessoas experimentarem”, reforça o diretor da Nova SBE.

E se experimentarem “vão perceber as potencialidades daquele tipo de serviço”, sublinha Pedro Oliveira.

“O que nós hoje, penso eu, temos que começar a dizer, por exemplo, nas universidades, aos nossos professores que ainda estão menos familiarizados com esta tecnologia é que têm que experimentar, têm que conhecer. E depois têm que pensar que implicações é que isto tem para as atividades deles”, defende, salientando que uma instituição universitária norte-americana foi uma das primeiras a avançar “com uma política ativa de incentivar os seus professores a familiarizarem-se com esta tecnologia”, conta.

Isso serve também para “incentivar os seus professores a repensar a forma como, por exemplo, avaliam os seus alunos, como é que vão garantir que quando se avalia o aluno estamos mesmo a avaliar o aluno, o conhecimento original que é transmitido pelo aluno e não o conhecimento que nos é transmitido por uma máquina”, explica Pedro Oliveira.

Todas estas experiências “são agora muito importantes” e porque o tema da inteligência artificial é relevante a Nova SBE vai contribuir para o debate com conferências sobre o tema já em março.

O que é que as empresas, os colaboradores devem fazer em relação ao ChatGPT? “A minha principal recomendação é essa: antes de mais informem-se, experimentem, experimentem por vocês, não se deixem só assustar por aquilo que leem e depois vão ver que é fabuloso”, reforça.

Para Pedro Oliveira, “não há volta a dar” a sistemas como o ChatGPT: “Acho que tentar parar isto é tão produtivo, é tão eficiente como tentar parar o vento com as mãos”.

A Nova SBE vai realizar debates sobre o tema, em parceria com a Faculdade de Ciências Médicas da Universidade Nova de Lisboa, a 01 e 23 de março.

Esta parceria com a Faculdade de Ciências Médicas (Nova Medical School) surge “porque também são muitos os desafios para a saúde, mas para nós, no ensino, para nós, na economia, nos negócios, os desafios são gigantescos”, insiste Pedro Oliveira.

Nestes debates vão estar presentes especialistas, profissionais da área da saúde, entre outros, para discutir “precisamente as implicações desta nova tecnologia”.

Aliás, “apesar de todos os desafios que nós vislumbramos que temos pela frente, este é um tema absolutamente fascinante e acho que a universidade tem que fazer aquilo que sempre fez: que é abraçar novo conhecimento, abraçar os novos desafios, abraçar esta nova tecnologia, enquadrá-la nas suas atividades, seja de investigação, seja de ensino, garantir que constrói em cima disso para produzir melhor conhecimento e conhecimento que permite às universidades aumentar ainda o seu o seu impacto”, defende o ‘dean’.

E “esperamos que, com isto, um impacto positivo na sociedade de escolas como a nossa seja ainda maior”, remata.

 

Mafalda Alves Dias, diretora do setor público e grandes contas da Vodafone Portugal

A diretora do setor público e grandes contas da Vodafone Portugal defende à Lusa que soluções de inteligência artificial (IA) como o ChatGPT vieram “para ficar” e aponta o emprego, segurança e questões éticas como desafios.

“O ChatGPT é um ‘chatbot’ que tem inteligência artificial como tantos outros que há aí no mercado, tem ‘deep learning’, são algoritmos que são baseados em aprendizagem de redes que copiam os nossos neurónios” e em que há cruzamento de informação, explica Mafalda Alves Dias.

Ou seja, “são várias camadas de interconexão desses focos de informação que aceleram na prática a aprendizagem que nós chamamos aprendizagem do ‘chat’”, prossegue, apontando que, na sua opinião, a razão do sucesso do ChatGPT “é a linguagem natural”.

Aliás, na Vodafone Portugal já se ‘brinca’ internamente com o ChatGPT, em que este é referido “como se fosse uma pessoa”, muito por ‘culpa’ da linguagem natural que utiliza.

“Depois tem uma série de outras ferramentas de inteligência artificial, como é ‘transfer learning’ e a própria arquitetura, que mostram depois o resultado muito mais próximo de uma conversa que nós temos com uma pessoa e, isso, para mim é que é a causa do grande sucesso”, salienta Mafalda Alves Dias.

Isto porque há esta ferramenta da OpenAI que “está aberta a toda a gente” e que “é muito próxima de uma conversa natural”, embora não seja “ainda 100%”, aponta.

A IA é uma solução bastante utilizada pelos operadores de telecomunicações e a Vodafone não é exceção, já que permite otimizar processos.

“Na parte interna, já usamos este tipo de soluções de inteligência artificial em inúmeras atividades, a começar, por exemplo, na nossa otimização da utilização” da própria rede, por exemplo, “orientamos o sinal para onde ele é mais preciso”, explica.

A empresa tem inúmeros dados que recolhe das antenas, informação essa que é usada para trabalhos internos e externos da Vodafone, o ‘Big Data’.

E “aí também usamos uma série de algoritmos e temos o ‘deep learning’” que permite a criação de modelos de previsão melhores, por exemplo, otimizando as operações das equipas, afirma.

Outro exemplo são as ferramentas que “correm os concursos públicos todos que são publicados diariamente para identificar quais são aqueles que são relevantes” para a empresa concorrer. Esta é uma tarefa que antes era feita por uma pessoa e que, atualmente, com recurso a um ‘chat’ permite “libertar as pessoas para as tarefas de decisão” em vez de estarem focadas na execução, relata.

Do lado dos clientes, Mafalda Alves Dias dá o exemplo do TOBi, o assistente virtual de apoio ao cliente da Vodafone, que ajuda a resolver os problemas.

“Quando o lançámos” era só sobre perguntas sobre ‘roaming’, mas o ‘chat’ começou a aprender e a ser ensinado a responder a outras áreas” e a “ideia é que isto continue a crescer”, salienta, apontando que o TOBi é o exemplo mais direto “e que as pessoas conseguem ver todos os dias e cada vez se vê mais em várias empresas”.

Na área empresarial das grandes contas, a responsável – que faz parte do projeto Vodafone Power Lab – refere que uma das coisas que a equipa faz é ver projetos que façam sentido incluir no portefólio da operadora para entregar aos clientes.

Um dos exemplos que dá é uma empresa turca – Xena-Vision – da qual foi mentora em 2022 e que “utiliza inteligência artificial na análise de dados das câmaras de videovigilância para fazer previsão de risco em grandes multidões”, a qual estava a trabalhar com a polícia do Canadá e com o clube de futebol Galatasaray, na Turquia.

Trata-se de “um projeto engraçado para clientes nossos, como clubes de futebol ou eventos de concertos de rock (…) com muitas multidões”, em que desenvolveram uma IA que “conseguia prever pelo comportamento das massas que aquilo ia culminar numa situação de risco e, portanto, alertavam de imediato a polícia ou as forças de segurança que estavam associadas ao evento para poderem estar mais próximo”, explica a diretora.

Para Mafalda Alves Dias, soluções como o ChatGPT “são uma tendência de presente”, vão continuar a crescer e, muito mais do que uma moda, vieram “para ficar”.

A IA “já vem desde os anos 50” e foi crescendo, pelo que o ChatGPT “não é uma coisa altamente disruptiva e inovadora”, no entanto, acrescenta, “este tipo de soluções” têm a característica de ser colaborativa.

“Agora, o futuro é o quê? Vai continuar a crescer”, acrescenta, salientando que a parte da linguagem natural “vai ter uma aproximação cada vez maior”, mas o que será “especialmente surpreendente é a parte de análise dos sentimentos”.

Como é que uma máquina analisa os sentimentos? “A análise de sentimentos não é aquilo que nós fazemos, que olhamos para uma pessoa e vemos” que tem os olhos tristes, mas antes a “forma como eu faço a comunicação, a linguagem que utilizo, quer seja verbal, quer seja não verbal, num determinado contexto, eu consigo deduzir que aquilo é um determinado sentimento associado”, explica.

Admite que é um tema “um bocadinho assustador”, já que há uma interferência “na parte emocional que é restrita aos humanos”, mas considera que será uma das áreas “mais visíveis no futuro”, a par do aumento da capacidade de processamento de informação em larga escala. A isto soma-se o trabalho em modelos de predição.

Tudo que são coisas diferentes “trazem sempre desafios”, sendo que o “mais crítico” é a “história do desemprego”, refere, acrescentando que o desenvolvimento de soluções IA também vai criar outros empregos.

“Faço sempre o paralelismo com a revolução industrial”, que tirou muitos empregos na agricultura e criou muitos nas fábricas, mas agora “vai ser um bocadinho diferente” porque “vai mudar a forma de trabalhar, disso não há dúvida nenhuma”, diz.

Depois, há questões “claramente de segurança”, porque há uma recolha massiva de informação, o que aumenta o risco de “haver violações da privacidade, da segurança”, acrescenta.

Estes são temas em que todos têm de estar atentos à informação que expõe publicamente e nas empresas têm de haver a garantia que “são seguras a nível de proteção dos dados dos seus clientes e das suas próprias informações”, prossegue.

Nesse sentido, a cibersegurança é um tema que “vai acompanhar diretamente, em paralelo, o crescimento deste tipo de soluções” e vai “estar sempre em cima da mesa”. Depois, há um terceiro tema “mais amplo” e “transversal”, que são as questões éticas, elenca.

“Estes modelos de inteligência artificial pautam-se muito por levantar discussões de filosofia e de ética e de quem é a responsabilidade da decisão”, se é do ‘chat’, de quem fez a imputação de dados, quem depois confirmou a decisão que o ‘chat’ recomendou.

“Diria que não é um risco”, mas antes “um desafio”, remata.

Executive Digest

NEWSLETTER

Subscreva a nossa Newsletter e fique a par das últimas novidades das comunicações no universo da lusofonia.