Indice del forum Olimpo Informatico
I Forum di Zeus News
Leggi la newsletter gratuita - Attiva il Menu compatto
 
 FAQFAQ   CercaCerca   Lista utentiLista utenti   GruppiGruppi   RegistratiRegistrati 
 ProfiloProfilo   Messaggi privatiMessaggi privati   Log inLog in 

    Newsletter RSS Facebook Twitter Contatti Ricerca
Guerra simulata, i chatbot optano per il nucleare nel 95% dei casi
Nuovo argomento   Rispondi    Indice del forum -> Sopravvivere alla new economy
Precedente :: Successivo  
Autore Messaggio
Zeus News
Ospite





MessaggioInviato: 27 Feb 2026 01:00    Oggetto: Guerra simulata, i chatbot optano per il nucleare nel 95% dei casi Rispondi citando

Leggi l'articolo Guerra simulata, i chatbot optano per il nucleare nel 95% dei casi
Il mondo di Wargames - Giochi di Guerra è un po' più vicino.


 
Foto di Luke Jernejcic.
 

Segnala un refuso
Top
{scinna}
Ospite





MessaggioInviato: 27 Feb 2026 11:53    Oggetto: Rispondi citando

Ma dai, ma che roba è? Ma siamo seri!
Le cosiddette IA sono solo degli LLM che hanno una infinità di problemi tecnici ancora da risolvere.
Da un punto di vista umano sono praticamente degli psicotici e certamente nessuno sano di mente si aspetta da loro valutazioni strategiche e tantomeno morali.
Allo stato attuale non si può parlare di gestione di qualcosa, perché senza capacità di contestualizzazione, senza una infinita gamma di pesi da attribuire ad ogni cosa, e senza la capacità di valutare ogni mossa e le conseguenze alla luce dei pesi anzidetti, come facciamo noi, è impossibile la gestione non dico di un conflitto ma neanche di cosa è meglio comprare per la spesa.
Uno psicotico dovrebbe essere stabilizzato con farmaci e sorvegliato in day hospital, non assegnato alla gestione di conflitti, (o a fare da consulente psicologico), a meno che non ci si voglia suicidare.
Top
zero
Dio maturo
Dio maturo


Registrato: 22/03/08 18:34
Messaggi: 2341

MessaggioInviato: 27 Feb 2026 13:24    Oggetto: Rispondi citando

Citazione:
Per i modelli di intelligenza artificiale la risoluzione di una crisi internazionale non deve essere necessariamente pacifica: l'utilizzo di armi nucleari tattiche è tutt'altro che fuori discussione

Gli umani invece, uguale.
Putin ha piu' volte minacciato che potrebbe usare ordigni nucleari e gli USA ne hanno gia' sganciate due (Hiroshima e Nagasaki).

L'immagine che quasi tutti abbiamo delle AI, deriva da cio' che abbiamo visto nei film, dove sono eccessivamente buone e oneste oppure eccessivamente cattive e pericolose.
La realta' e' che non sono ne' buone ne' cattive, e non hanno idea di cio' che stanno facendo.


.
Top
Profilo Invia messaggio privato
{Murdock}
Ospite





MessaggioInviato: 27 Feb 2026 15:23    Oggetto: Rispondi citando

Piccolo particolare, in wargames WOPR era convinto di eseguire un gioco, non aveva tutte quelle variabili che adesso sono state fornite all'IA e che, in teoria, dovrebbero anche avere delle priorita' di obbiettivi (gli umani??!!).
Top
{Prof. Falken}
Ospite





MessaggioInviato: 27 Feb 2026 17:46    Oggetto: Rispondi citando

Fateli giocare a Tris in modo che imparino il senso dell’inutilità, prima che sia troppo tardi!
Top
{bob}
Ospite





MessaggioInviato: 02 Mar 2026 11:27    Oggetto: Rispondi citando

Qui il punto è che gli LLM, addestrati su una base di conoscenza ed informazioni esistenti in rete, sono lo specchio di una tendenza reale ed "umana" (salvo poisoning delle fonti).

Su questa tendenza come segnalata dallo studio vedi "A House of Dynamite" (2025) diretto da Kathryn Bigelow.

Se vogliamo ignorare la "bomba", non rammarichiamoci poi di non riuscire a disinnescarla...
Top
Gladiator
Dio maturo
Dio maturo


Registrato: 05/12/10 21:32
Messaggi: 15231
Residenza: Purtroppo o per fortuna Italia

MessaggioInviato: 03 Mar 2026 14:38    Oggetto: Rispondi

L’idea che qualcuno prenda un modello linguistico, lo metta davanti a una crisi nucleare simulata e poi resti sorpreso se questo “sceglie” l’escalation è un po’ come stupirsi che un simulatore di poker giochi aggressivo quando lo hai addestrato su milioni di mani dove l’aggressività paga.

Partiamo da una cosa fondamentale che nell'articolo viene detta ma, a mio giudizio, non abbastanza sottolineata: questi modelli non prendono decisioni, non hanno dottrine, non hanno paura della morte, non hanno nipoti sotto una nube radioattiva. Generano testo plausibile dato uno scenario. Se nello scenario la logica dominante è “massimizzare il vantaggio strategico ed evitare vulnerabilità”, il first strike diventa narrativamente coerente. Non perché “vogliono la guerra”, ma perché nei dataset strategici, nella teoria dei giochi, nella letteratura militare e pure nella fiction, quella è una mossa classica.

Il vero pericolo non è che un LLM “decida” di lanciare un’atomica. È che qualcuno:
- lo consideri più razionale di quanto sia
- gli attribuisca un’autorità che non ha
- lo inserisca in pipeline decisionali senza filtri umani forti
E qui arriviamo al punto etico-politico. E' fondamentale parlare di governance e limiti d’uso. Un LLM è un generatore di pattern statistici. Se lo metti in un contesto dove servono:
- valutazione morale
- responsabilità
- comprensione delle conseguenze fisiche reali
- gestione prudente dell’ambiguità
Il disastro è assicurato.

La cosa che mi preoccupa di più, sinceramente, non è il modello che propone un first strike in una simulazione. È la facilità con cui gli esseri umani proiettano intenzionalità, coerenza strategica e “razionalità fredda” su una macchina che sta solo facendo autocomplete statistico su richieste forse anche mal formulate basandosi su testi reali ma anche su fiction.

Si spera solo che questo serva a dissuadere i decisori dall'utilizzare gli LLM a questo scopo ma, visti i decisori attuali e i loro comportamenti, non ne sarei troppo sicuro, anzi stano dimostrando una propensione allo scontro totale almeno pari se non superiore agli LLM. Incupito
Top
Profilo Invia messaggio privato
Mostra prima i messaggi di:   
Nuovo argomento   Rispondi    Indice del forum -> Sopravvivere alla new economy Tutti i fusi orari sono GMT + 2 ore
Pagina 1 di 1

 
Vai a:  
Non puoi inserire nuovi argomenti
Non puoi rispondere a nessun argomento
Non puoi modificare i tuoi messaggi
Non puoi cancellare i tuoi messaggi
Non puoi votare nei sondaggi