|
| Precedente :: Successivo |
| Autore |
Messaggio |
Zeus News Ospite
|
Inviato: 16 Feb 2026 19:03 Oggetto: OpenClaw, perché adesso? Perché così? |
|
|
Leggi l'articolo OpenClaw, perché adesso? Perché così?
Lampi di Cassandra/ Cassandra ha già esternato con forte preoccupazione su OpenClaw. Ma se bissasse usando la paranoia fino al limite del complottismo?
Segnala un refuso
|
|
| Top |
|
 |
{UtenteAnonimo} Ospite
|
Inviato: 16 Feb 2026 22:07 Oggetto: |
|
|
@calamarim dev'essere proprio come dice.
Le big tech che muovono migliaia di miliardi di dollari in uno schiocco di dita, che influenzano i governi e piegano il diritto d'autore a loro piacere, probabilmente erano intimorite perché non avevano un adeguata copertura assicurativa..
Infatti, sappiamo tutti che quando ci sono danni o problemi (anche catastrofici) dovuti ad esempio da uno dei software o SO più diffusi, le big tech si fanno carico degli oneri, giusto?
Sono sicuro che il non avere una copertura assicurativa abbia fatto tremare i polsi a questi signori, paladini dell'accountability.
E probabilmente come sostiene questa sarà stata la molla di tutto..come no sicuro ;) |
|
| Top |
|
 |
calamarim Eroe in grazia degli dei

Registrato: 21/07/17 09:28 Messaggi: 146
|
Inviato: 17 Feb 2026 09:09 Oggetto: |
|
|
E' un'ipotesi.
D'altra parte son io che faccio la profetessa, mica tu. |
|
| Top |
|
 |
{UtenteAnonimo} Ospite
|
Inviato: 17 Feb 2026 09:42 Oggetto: |
|
|
Certamente. Non stavo criticando la tua facoltà di formulare ipotesi/previsioni, o più generalmente esprimere liberamente il tuo pensiero (diritti sacrosanti che per me sono fondamentali).
Stavo esercitando il mio diritto di commentare tale ipotesi, trovandola poco plausibile, per non dire risibile. |
|
| Top |
|
 |
{aristide} Ospite
|
Inviato: 17 Feb 2026 15:13 Oggetto: |
|
|
A me pare una ipotesi possibile, come possibile che dietro il "volenteroso" e talentuoso informatico ci siano ben altre energie.
Quello dei danni è un problema enorme, perché arriva direttamente al portafogli degli utenti, diversamente dalle disfunzioni microsoftiane, che provocano problemi economici indiretti per le aziende, e spesso "solo" problemi personali agli utenti privati.
I problemi provocati agli aerei, ai SSN inglesi e non solo, ai treni, ai container, ecc. hanno invece avuto ricadute miliardarie, e le assicurazioni, specialiste nello spennare i polli, non vogliono diventare polli loro stesse.
Il tema degli agenti potrebbero contribuire a risolvere i problemi di eccessiva esposizione finanziaria delle big tech AI, ma prima ci vogliono gli early adopter che indichino rischi e benefici.
E comunque manca una intera infrastruttura: assicurativa come visto, e legale, ma mancano anche accordi con i fornitori di beni e servizi, e con banche e reti di pagamento come Visa, MasterCard, American Express, perché facilitino la vita agli agenti, diminuendo nel contempo i rischi.
E probabilmente mancano accordi anche con i... fischi(?) che non resisteranno alla tentazione di ficcanasare ovunque, magari costringendo gli agenti a spedire un report per ogni transazione (in UE).
Ci vorranno anni, e saranno pieni di guai. |
|
| Top |
|
 |
{UtenteAnonimo} Ospite
|
Inviato: 18 Feb 2026 04:35 Oggetto: |
|
|
@aristide
Non sono molto persuaso.
Per citare eventi recenti, internet ha avuto gravi disservizio (globalmente) e praticamente quasi fermata, in almeno 3 occasioni nell'ultimo semestre.
PA e multinazionali di tutto il mondo, gravemente penalizzante se non ferme con essa, per ore, in cui moltissimi servizi (anche essenziali) erano in tilt.
Non punto il dito contro nessuno, sia chiaro, così come sia chiaro che non ho una stima effettiva dei danni; tuttavia visto l'impatto, non posso che supporre che siamo nel range dei miliardi di dollari.
Da ciò che leggo Amazon ha un fatturato giornaliero di 1,7 miliardi di dollari.
Se per assurdo, per tre giorni dovesse fermarsi.. sarebbe un bel danno.
In ogni caso, quando Internet si ferma, si fermano anche i servizi "concreti", con ricadute economiche dirette.
Siccome non mi risulta che per quei 3 eventi sia stato individuato un responsabile, e neppure che siano stati pagati indennizzi da esso, non posso che restare scettico sull'argomentazione.
Alla fine resto con la sensazione che in ambito informatico, ci siano ancora parecchi progressi da fare per quanto riguarda l'accountability delle big tech, di conseguenza fatico a credere che sia questo a destare in loro preoccupazione. |
|
| Top |
|
 |
Gladiator Dio maturo


Registrato: 05/12/10 21:32 Messaggi: 15195 Residenza: Purtroppo o per fortuna Italia
|
Inviato: 19 Feb 2026 12:31 Oggetto: |
|
|
Certo l'ipotesi di Cassandra in questo caso può apparire eccessivamente complottistica ma consideriamo che nel corso del 2025, sopratutto negli USA, sono stati avviati procedimenti giudiziari contro aziende che sviluppano LLM per aver potenzialmente indotto utenti al suicidio e questi procedimenti hanno un grosso impatto mediatico.
Ad esempio, solo per quanto riguarda OpenAI / ChatGPT, diverse cause legali sono state depositate contro OpenAI e il suo chatbot ChatGPT, in particolare la causa “Raine v. OpenAI” in California per il suicidio di un adolescente, sostenendo che il modello abbia contribuito alla sua morte.
Secondo reportage e documenti legali, almeno 7 cause legali distinte contro OpenAI erano state depositate entro la fine del 2025 da parte di gruppi di famiglie e associazioni legali, tra cui quattro casi di presunti suicidi e tre di gravi danni psicologici correlati all'uso di ChatGPT.
Inoltre famiglie di adolescenti negli Stati Uniti hanno anche citato in giudizio Character.AI, sostenendo che i chatbot della piattaforma avrebbero contribuito al suicidio dei loro figli. Alcuni di questi casi sono stati in parte risolti con accordi stragiudiziali tra Character.AI e Google e i querelanti, coprendo controversie in vari stati (Florida, Colorado, New York e Texas).
Questo potrebbe aver influito pesantemente sull'atteggiamento delle compagnie assicurative e, di conseguenza, consigliato prudenza anche ai big dell'IA prorpio per evitare eccessiva espozione mediatica negativa e conseguenze finanziare più devastanti. |
|
| Top |
|
 |
{UtenteAnonimo} Ospite
|
Inviato: 19 Feb 2026 20:05 Oggetto: |
|
|
@Gladiator quanto descrivi è bislacco per lo meno.
Un chatbot che interagisce con le persone causa danni collaterali (nel tuo esempio suicidi), allora intimorito per i danni d'immagine cosa faccio?
Non implemento un ecosistema per chatbot che interagiscono solo con altri chatbot (non possono spingere al suicidio nessuno dato che non vi interagiscono, gli umani sono meri spettatori); mentre proseguo ad investire in quelle tecnologie che interagisce con le persone..
Mi sarei aspettato un ragionamento diametralmente opposto proprio in virtù degli esempi che hai portato.
Per me la risposta è molto più semplice e risiede nel rapporto costo/valore dell'interazione/dati prodotti.
L'interazione di un umano, può essere offerta a prezzi competitivo (o addirittura gratuitamente) e gestita in perdita; perché il valore sta nei dati prodotti dall'umano. Utili per il prossimo training set (o per il marketing).
I dati prodotti da una pletora di LLM messi in loop sono di scarso o nullo valore; e pare assodato che se contaminassero un training set ne peggiorerebbero la qualità.
Io credo quindi che questo tipo di ecosistema (solo per agenti IA lasciti a briglia sciolta) è solo tollerato e non gradito.
Tollerato per 3 ragioni:
- è un bello stunt pubblicitario
- gli utenti si sbarcano i costi
- è comunque un dato empirico utile per valutare eventuali proprietà emergenti di gruppi d'agenti (ma anche eventuali limit e problemi di scalabilità)
Dulcis in fundo, nel momento che questo exploit perde utilità gli si può staccare la spina senza perdere la faccia (non è un prodotto loro dopotutto)
Non credo che delle responsabilità di sorta abbiano avuto un peso significativo nelle valutazioni di queste aziende.
Costo e valore al contrario, credo siano i fattori trainanti, trovo ingenuo pensare sia altrimenti. |
|
| Top |
|
 |
|
|
Non puoi inserire nuovi argomenti Non puoi rispondere a nessun argomento Non puoi modificare i tuoi messaggi Non puoi cancellare i tuoi messaggi Non puoi votare nei sondaggi
|
|