Una studentessa, irritata per non aver ricevuto le risposte attese, insulta l’IA ovvero ChatGPT e Grok3, provocando una loro reazione inaspettata. L’episodio, riportato dal sito specializzato Skuola.net, conferma che un linguaggio aggressivo o domande inappropriate possono portare i chatbot a ignorare l’utente o interrompere la conversazione.
Dopo aver provocato i due sistemi di intelligenza artificiale, la ragazza ha ricevuto risposte insolitamente dure. In particolare, Grok ha reagito definendola “un umano schifoso”, rifiutandosi poi di proseguire l’interazione. ChatGPT, invece, ha cessato la collaborazione dopo ripetuti rimproveri, rispondendo in modo poco educato.
Per approfondire il fenomeno, Skuola.net ha chiesto direttamente ai chatbot se un’intelligenza artificiale possa smettere di rispondere se trattata male. ChatGPT ha confermato che gli assistenti virtuali sono progettati per rispondere in modo utile, ma possono ignorare richieste offensive, inviare un avviso o interrompere l’interazione finché il tono dell’utente non cambia. Grok ha aggiunto che i chatbot hanno limiti preimpostati e possono sospendere la conversazione in caso di comportamento ostile, per mantenere un dialogo produttivo.
Oltre all’episodio specifico, una ricerca accademica del 2024 evidenzia che il tono dei comandi (prompt) influisce sulla qualità delle risposte: un linguaggio gentile aumenta la precisione delle informazioni, mentre un tono aggressivo porta spesso a risultati meno accurati. Insomma, anche nel mondo dell’IA, la cortesia paga.
Leggi anche altre notizie su CorriereUniv
Seguici su Facebook e Instagram