Precedente :: Successivo |
Autore |
Messaggio |
Zeus News Ospite
|
Inviato: 11 Set 2025 17:00 Oggetto: Possiamo vivere con computer che sbagliano? |
|
|
Leggi l'articolo Possiamo vivere con computer che sbagliano?
Cassandra Crossing/ L'introduzione forzata di LLM in tutti i settori dell'informatica, che la finanza rende obbligatoria, ha fatto una importante vittima: la fiducia nelle risposte dei computer. Ma possiamo conviverci senza perderci in un mondo fatto di allucinazioni ed errori?
Segnala un refuso |
|
Top |
|
 |
zeross Amministratore


Registrato: 19/11/08 12:04 Messaggi: 8503 Residenza: Atlantica
|
Inviato: 11 Set 2025 17:24 Oggetto: |
|
|
Citazione: | Perdita generalizzata di capacità mentali, di iniziativa e di competenza, a partire dai professionisti e dai ricercatori |
Questo avviene già senza il bisogno dele IA LLM, secondo le testate giornalistiche una alta percentuale di Laureati non riesce a comprendere il testo che legge.
Al massimo le IA LLM possono occuparsi del resto.
Per quanto riguarda l'attesa sulla esattezza delle risposte da parte di una macchina, la macchina stessa esiste e viene costruita proprio per dare risposte; se non è in grado di dare risposte accurate o viene riparata o viene buttata.
Non esistono alternative. |
|
Top |
|
 |
{UtenteAnonimo} Ospite
|
Inviato: 11 Set 2025 19:35 Oggetto: |
|
|
@calamarim devo ribadire, che trovo discutibile che lei si ostini a definire gli LLM false intelligenze artificiali.
Si lamenta delle allucinazioni degli LLM ma questo non è tanto differente, intuisco che non le piacciono, ma per convenzione/definizione gli LLM sono AI.
Io mi immagino un ecologista super convinto, che definisca le automobili diesel dei falsi mezzi di trasporto.. sarebbe paradossale..
Per cui le chiedo, proprio per preservare l'integrità dell'infosfera, non si costruisca definizioni di sua sponte, in contravvenzione di quanto convenzionalmente accettato.
Si attenga alle definizioni.
Personalmente, in caso di dubbi trovo utile avvalermi di strumenti quali dizionari o enciclopedie, mi permetto quindi di condividerle un link: link
Altrimenti credo possa correre il rischio, di smentirsi con il suo stesso esempio, inficiando così la sua tesi.
Dopotutto se gli scivoloni in un articolo (purtroppo comuni oggigiorno) non causano sfracelli nell' infosfera, perché mai dovrebbe causarli un LLM con le sue allucinazioni? |
|
Top |
|
 |
777omega777 Mortale devoto

Registrato: 22/07/13 15:24 Messaggi: 14
|
Inviato: 12 Set 2025 08:42 Oggetto: |
|
|
{UtenteAnonimo} ha scritto: | Si lamenta delle allucinazioni degli LLM ma questo non è tanto differente, intuisco che non le piacciono, ma per convenzione/definizione gli LLM sono AI.
|
Per convenzione l'effetto Dunning-Kruger è l'avere chi si informa da wikipedia che pensa di saperne di più del laureato con la laurea specialistica con vent'anni d'esperienza in un dato campo. Ma quello non è il vero effetto Dunning-Kruger, ma un'invenzione giornalistica (Come lo è il chiamare i LLM con il nome di Intelligenza Artificiale.) che si è diffusa parecchio su internet.
Correggere e riportare i termini al loro significato originario non mi pare che sia una pratica da criticare, se il mondo sbaglia si può dire che il mondo sta sbagliando, non ti devi adeguare necessariamente alla maggioranza.
E ci sono una miriade di esempi di questo tipo.
Per dirne una manciata alla veloce: Questione GNU/Linux, Woke, Programmazione a Oggetti, Web 3.0/3 (Che son due cose molto diverse.), Paradosso di Popper...
Quindi, sul serio, impariamo (E questo riguarda molto l'analfabetismo funzionale.) ad adattarci al discorsi che abbiamo davanti? Invece di lamentarci del nulla? Per di più di chi ha ragione perché non si adegua alla maggioranza? A un'invenzione giornalistica. |
|
Top |
|
 |
calamarim Eroe in grazia degli dei

Registrato: 21/07/17 09:28 Messaggi: 133
|
Inviato: 12 Set 2025 09:38 Oggetto: |
|
|
{UtenteAnonimo} ha scritto: | @calamarim devo ribadire, che trovo discutibile che lei si ostini a definire gli LLM false intelligenze artificiali.
Si lamenta delle allucinazioni degli LLM ma questo non è tanto differente, intuisco che non le piacciono, ma per convenzione/definizione gli LLM sono AI.
Io mi immagino un ecologista super convinto, che definisca le automobili diesel dei falsi mezzi di trasporto.. sarebbe paradossale..
Per cui le chiedo, proprio per preservare l'integrità dell'infosfera, non si costruisca definizioni di sua sponte, in contravvenzione di quanto convenzionalmente accettato.
Si attenga alle definizioni.
Personalmente, in caso di dubbi trovo utile avvalermi di strumenti quali dizionari o enciclopedie, mi permetto quindi di condividerle un link: link
Altrimenti credo possa correre il rischio, di smentirsi con il suo stesso esempio, inficiando così la sua tesi.
Dopotutto se gli scivoloni in un articolo (purtroppo comuni oggigiorno) non causano sfracelli nell' infosfera, perché mai dovrebbe causarli un LLM con le sue allucinazioni? |
Salve,
certamente le opinioni, per quanto motivate da fatti, non da definizioni, sono sempre discutibili, ci mancherebbe.
Detto questo, no, non mi preoccupo minimamente (e ci mancherebbe, dato il mio ruolo di profetessa di sventura!) di andare controcorrente e non accettare definizioni.
Accetto solo prove scientifiche sottoposte a peer-review, oppure dimostrazioni di falle dei miei "ragionamenti.
E la salute dell'infosfera nemmeno mi preoccupa, perché ritengo che i miei piccoli contributi la migliorino, o comunque non la peggiorino certamente.
La ringrazio quindi dei suoi suggerimenti, che ovviamente non seguirò.
Buona giornata. |
|
Top |
|
 |
{Franz} Ospite
|
Inviato: 12 Set 2025 11:06 Oggetto: - |
|
|
Commento di utente non verificato, in attesa di approvazione. |
|
Top |
|
 |
amldc Dio maturo

Registrato: 02/05/06 17:21 Messaggi: 1431
|
Inviato: 12 Set 2025 11:49 Oggetto: |
|
|
{UtenteAnonimo} ha scritto: |
Si lamenta delle allucinazioni degli LLM ma questo non è tanto differente, intuisco che non le piacciono, ma per convenzione/definizione gli LLM sono AI.
|
Convenzione/definizione data da chi ? l'intelligenza implica la comprensione di un argomento e l'elasticità mentale per dedurre nuove idee. Gli LLM non fanno altro che soppesare delle parole per generarne una sequenza che appaia sensata in base a delle valutazioni statistiche. Un LLM non comprende quello che gli viene chiesto, lo spezzetta, lo soppesa e genera qualcosa che sembra una risposta plausibile in base a delle regole statistiche.
La utilizzo per lo sviluppo e per il refactoring del software ed il fatto che alla stessa domanda dia risposte differenti non lo ritengo un buon segno visto che mi sembrerebbe logico che restituisse sempre la risposta migliore. Non solo, quando si inventa istruzioni o librerie che non esistono risulta estremamente frustrante.
Direi che è paragonabile ad un pappagallo: ripete belluinamente qualcosa ma non ha idea del significato.
Agli albori dell'informatica si parlava di 'cervello elettronico', fino a quando la gente ha iniziato a rendersi conto che un calcolatore non è un cervello ma una macchina in grado di eseguire meccanicamente delle operazioni codificate da un umano. Un LLM non ha la fantasie e l'intuizione che caratterizzano l'intelligenza umana, invece che intelligenza artificiale sarebbe più opportuno definirli 'intelligenza simulata'. |
|
Top |
|
 |
{UtenteAnonimo} Ospite
|
Inviato: 12 Set 2025 16:17 Oggetto: - |
|
|
Commento di utente non verificato, in attesa di approvazione. |
|
Top |
|
 |
|
|
Non puoi inserire nuovi argomenti Non puoi rispondere a nessun argomento Non puoi modificare i tuoi messaggi Non puoi cancellare i tuoi messaggi Non puoi votare nei sondaggi
|
|