Crédito editorial: Gumbariya / Shutterstock.com (ID: 2491063591)

Google Gemini surpreende utilizadores com a sua Inteligência Artificial

O Google Gemini tem estado em constante evolução. No entanto, há um problema que esta a deixar os utilizadores perplexos. 

No final de 2023, a Google lançou o Gemini, um novo modelo de Inteligência Artificial generativa para competir diretamente com o ChatGPT da OpenAI. O Gemini apresenta duas modalidades: Standard e Advanced, sendo esta última indicada para tarefas mais complexas, incluindo a escrita de código em Python.

Ao longo dos tempos o Google Gemini tem evoluído. Ou seja, há uns meses atrás, o Gemini passou também a estar integrado de forma mais eficiente com aplicações como o Gmail, facilitando o acesso a informações e a realização de tarefas. Da mesma forma, o Gemini Live suporta conversas em dois idiomas no mesmo dispositivo, com planos para expandir essa capacidade a mais línguas no futuro. No entanto, nem tudo está bem.

Lê Também:
Criador da World Wide Web revela a importante pergunta a fazer à Inteligência Artificial

Google Gemini ainda tem alguns problemas

google gemini
Crédito editorial: rafapress / Shutterstock.com / 2397564317

O sistema da Google tem demonstrado um comportamento peculiar: ao invés de reconhecer quando não sabe algo, opta frequentemente por inventar respostas. Este fenómeno tornou-se evidente quando utilizadores começaram a criar provérbios falsos e a pedir interpretações à Inteligência Artificial da gigante tecnológica. Em muitos casos, a ferramenta oferece explicações com uma confiança surpreendente, apesar de as expressões serem totalmente inventadas.

Lê Também:
Com este truque podemos ter Internet por cabo, sem Wi-Fi e sem ligação Ethernet

A especialista em SEO, Lily Ray, apelidou o comportamento de “AI-splaining”, uma referência à forma como a IA tenta explicar, de forma autoritária, conceitos sem fundamento real. A situação gerou momentos cómicos, como no caso do falso provérbio “não se pode apertar a mão a um urso velho”, que a Google interpretou como um aviso sobre a falta de fiabilidade de certas pessoas.

Apesar do tom humorístico de algumas respostas, a tendência para “alucinações” da IA pode ser problemática. Há situações em que apresenta informações erradas sobre regras desportivas, ou sugere comportamentos perigosos, como comer pedras ou colocar cola em pizzas.

Já aconteceu contigo?



Loading poll ...
Em breve
A Tua Opinião Conta: Qual dos serviços mais usas?

Também do teu Interesse:



About The Author


Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *