|
| Precedente :: Successivo |
| Autore |
Messaggio |
Zeus News Ospite
|
|
| Top |
|
 |
{scinna} Ospite
|
Inviato: 27 Feb 2026 11:53 Oggetto: |
|
|
Ma dai, ma che roba è? Ma siamo seri!
Le cosiddette IA sono solo degli LLM che hanno una infinità di problemi tecnici ancora da risolvere.
Da un punto di vista umano sono praticamente degli psicotici e certamente nessuno sano di mente si aspetta da loro valutazioni strategiche e tantomeno morali.
Allo stato attuale non si può parlare di gestione di qualcosa, perché senza capacità di contestualizzazione, senza una infinita gamma di pesi da attribuire ad ogni cosa, e senza la capacità di valutare ogni mossa e le conseguenze alla luce dei pesi anzidetti, come facciamo noi, è impossibile la gestione non dico di un conflitto ma neanche di cosa è meglio comprare per la spesa.
Uno psicotico dovrebbe essere stabilizzato con farmaci e sorvegliato in day hospital, non assegnato alla gestione di conflitti, (o a fare da consulente psicologico), a meno che non ci si voglia suicidare. |
|
| Top |
|
 |
zero Dio maturo

Registrato: 22/03/08 18:34 Messaggi: 2341
|
Inviato: 27 Feb 2026 13:24 Oggetto: |
|
|
| Citazione: | | Per i modelli di intelligenza artificiale la risoluzione di una crisi internazionale non deve essere necessariamente pacifica: l'utilizzo di armi nucleari tattiche è tutt'altro che fuori discussione |
Gli umani invece, uguale.
Putin ha piu' volte minacciato che potrebbe usare ordigni nucleari e gli USA ne hanno gia' sganciate due (Hiroshima e Nagasaki).
L'immagine che quasi tutti abbiamo delle AI, deriva da cio' che abbiamo visto nei film, dove sono eccessivamente buone e oneste oppure eccessivamente cattive e pericolose.
La realta' e' che non sono ne' buone ne' cattive, e non hanno idea di cio' che stanno facendo.
. |
|
| Top |
|
 |
{Murdock} Ospite
|
Inviato: 27 Feb 2026 15:23 Oggetto: |
|
|
| Piccolo particolare, in wargames WOPR era convinto di eseguire un gioco, non aveva tutte quelle variabili che adesso sono state fornite all'IA e che, in teoria, dovrebbero anche avere delle priorita' di obbiettivi (gli umani??!!). |
|
| Top |
|
 |
{Prof. Falken} Ospite
|
Inviato: 27 Feb 2026 17:46 Oggetto: |
|
|
| Fateli giocare a Tris in modo che imparino il senso dell’inutilità, prima che sia troppo tardi! |
|
| Top |
|
 |
{bob} Ospite
|
Inviato: 02 Mar 2026 11:27 Oggetto: |
|
|
Qui il punto è che gli LLM, addestrati su una base di conoscenza ed informazioni esistenti in rete, sono lo specchio di una tendenza reale ed "umana" (salvo poisoning delle fonti).
Su questa tendenza come segnalata dallo studio vedi "A House of Dynamite" (2025) diretto da Kathryn Bigelow.
Se vogliamo ignorare la "bomba", non rammarichiamoci poi di non riuscire a disinnescarla... |
|
| Top |
|
 |
Gladiator Dio maturo


Registrato: 05/12/10 21:32 Messaggi: 15231 Residenza: Purtroppo o per fortuna Italia
|
Inviato: 03 Mar 2026 14:38 Oggetto: |
|
|
L’idea che qualcuno prenda un modello linguistico, lo metta davanti a una crisi nucleare simulata e poi resti sorpreso se questo “sceglie” l’escalation è un po’ come stupirsi che un simulatore di poker giochi aggressivo quando lo hai addestrato su milioni di mani dove l’aggressività paga.
Partiamo da una cosa fondamentale che nell'articolo viene detta ma, a mio giudizio, non abbastanza sottolineata: questi modelli non prendono decisioni, non hanno dottrine, non hanno paura della morte, non hanno nipoti sotto una nube radioattiva. Generano testo plausibile dato uno scenario. Se nello scenario la logica dominante è “massimizzare il vantaggio strategico ed evitare vulnerabilità”, il first strike diventa narrativamente coerente. Non perché “vogliono la guerra”, ma perché nei dataset strategici, nella teoria dei giochi, nella letteratura militare e pure nella fiction, quella è una mossa classica.
Il vero pericolo non è che un LLM “decida” di lanciare un’atomica. È che qualcuno:
- lo consideri più razionale di quanto sia
- gli attribuisca un’autorità che non ha
- lo inserisca in pipeline decisionali senza filtri umani forti
E qui arriviamo al punto etico-politico. E' fondamentale parlare di governance e limiti d’uso. Un LLM è un generatore di pattern statistici. Se lo metti in un contesto dove servono:
- valutazione morale
- responsabilità
- comprensione delle conseguenze fisiche reali
- gestione prudente dell’ambiguità
Il disastro è assicurato.
La cosa che mi preoccupa di più, sinceramente, non è il modello che propone un first strike in una simulazione. È la facilità con cui gli esseri umani proiettano intenzionalità, coerenza strategica e “razionalità fredda” su una macchina che sta solo facendo autocomplete statistico su richieste forse anche mal formulate basandosi su testi reali ma anche su fiction.
Si spera solo che questo serva a dissuadere i decisori dall'utilizzare gli LLM a questo scopo ma, visti i decisori attuali e i loro comportamenti, non ne sarei troppo sicuro, anzi stano dimostrando una propensione allo scontro totale almeno pari se non superiore agli LLM.  |
|
| Top |
|
 |
|
|
Non puoi inserire nuovi argomenti Non puoi rispondere a nessun argomento Non puoi modificare i tuoi messaggi Non puoi cancellare i tuoi messaggi Non puoi votare nei sondaggi
|
|