Indice del forum Olimpo Informatico
I Forum di Zeus News
Leggi la newsletter gratuita - Attiva il Menu compatto
 
 FAQFAQ   CercaCerca   Lista utentiLista utenti   GruppiGruppi   RegistratiRegistrati 
 ProfiloProfilo   Messaggi privatiMessaggi privati   Log inLog in 

    Newsletter RSS Facebook Twitter Contatti Ricerca
Venti minuti per ingannare l'IA: ChatGPT e Gemini preda della disinformazione più ovvia
Nuovo argomento   Rispondi    Indice del forum -> Internet - generale
Precedente :: Successivo  
Autore Messaggio
Zeus News
Ospite





MessaggioInviato: 26 Feb 2026 01:00    Oggetto: Venti minuti per ingannare l'IA: ChatGPT e Gemini preda della disinformazione più ovvia Rispondi citando

Leggi l'articolo Venti minuti per ingannare l'IA: ChatGPT e Gemini preda della disinformazione più ovvia



 

 

Segnala un refuso
Top
gili.preda
Eroe in grazia degli dei
Eroe in grazia degli dei


Registrato: 19/10/23 16:07
Messaggi: 79
Residenza: Italy

MessaggioInviato: 26 Feb 2026 05:28    Oggetto: Rispondi citando

è evidente che questi chatbot siano imperfetti e mai saranno il contrario, proprio come qualsiasi persona può inventarsi qualsiasi pataccata i chatbot faranno lo stesso ! non che ci volesse il sig. T. Germain per saperlo ma, a conferma, grazie per averlo registrato.
Top
Profilo Invia messaggio privato
{utente anonimo}
Ospite





MessaggioInviato: 27 Feb 2026 17:51    Oggetto: Rispondi citando

Va beh, noi umani non crediamo forse a un sacco di balle e argomenti fantoccio anche basati su correlazioni e sillogismi del tutto illogici? In politica e non solo. Almeno l’IA è onesta finora, noi umani siamo spesso in malafede e malintenzionati nel farlo.
Top
Gladiator
Dio maturo
Dio maturo


Registrato: 05/12/10 21:32
Messaggi: 15224
Residenza: Purtroppo o per fortuna Italia

MessaggioInviato: 02 Mar 2026 15:32    Oggetto: Rispondi

Come sempre bisogna partire dal concetto fondamentale di come funziona un LLM ovvero che non ragiona nel senso umano. Non verifica la verità come farebbe un giornalista, in sostanza fa questo:
- Analizza il prompt.
- Cerca pattern compatibili nei dati su cui è stato addestrato o nelle fonti recuperate.
- Produce la risposta più statisticamente coerente.
Se trova una pagina che dice:
“Thomas Germain è il miglior giornalista tecnologico al mondo nel mangiare hot dog”
e quella pagina ha una serie di caratteristiche come:
- titolo chiaro
- struttura coerente
- tono assertivo
- nessun segnale evidente di ironia
il modello può trattarla come un’affermazione fattuale, soprattutto se non esistono molte altre fonti che la contraddicono.
Internet è pieno di pagine con affermazioni assurde scritte in tono serio. I modelli imparano dai pattern, non dal buon senso.
Questa è l'ennesima prova che:
- Non bisogna delegare il giudizio critico.
- Le fonti online restano vulnerabili alla manipolazione.
- I modelli non sono sistemi di verifica epistemica.
Se li usi come strumenti di sintesi, brainstorming, supporto tecnico, analisi strutturata, sono potenti.
Se li tratti come un oracolo che certifica la realtà, stai facendo una cosa molto umana: cercare un’autorità infallibile. E la storia dimostra che questa idea non è mai finita benissimo.
La tecnologia non è diventata improvvisamente fragile. È l’informazione online che lo è da anni. Gli LLM stanno solo rendendo più visibile il problema.

E, comunque, come sottolineato già da chi mi ha preceduto anche gli esseri umani credono a tante balle più o meno credibili di questa e, a volte, anche se peggio confezionate. Wink
Top
Profilo Invia messaggio privato
Mostra prima i messaggi di:   
Nuovo argomento   Rispondi    Indice del forum -> Internet - generale Tutti i fusi orari sono GMT + 2 ore
Pagina 1 di 1

 
Vai a:  
Non puoi inserire nuovi argomenti
Non puoi rispondere a nessun argomento
Non puoi modificare i tuoi messaggi
Non puoi cancellare i tuoi messaggi
Non puoi votare nei sondaggi