Indice del forum Olimpo Informatico
I Forum di Zeus News
Leggi la newsletter gratuita - Attiva il Menu compatto
 
 FAQFAQ   CercaCerca   Lista utentiLista utenti   GruppiGruppi   RegistratiRegistrati 
 ProfiloProfilo   Messaggi privatiMessaggi privati   Log inLog in 

    Newsletter RSS Facebook Twitter Contatti Ricerca
Il robot che uccide solo quando veramente necessario
Nuovo argomento   Rispondi    Indice del forum -> Scienze e nuove tecnologie
Precedente :: Successivo  
Autore Messaggio
Zeus News
Ospite





MessaggioInviato: 28 Nov 2008 22:45    Oggetto: Il robot che uccide solo quando veramente necessario Rispondi citando

Commenti all'articolo Il robot che uccide solo quando veramente necessario
I soldati umani sono soggetti a stress, rabbia, vendetta: tutte emozioni che li portano a causare vittime anche tra i civili, e dalle quali un robot sarebbe al riparo.


Foto di Andreas Meyer
Top
Gavilan
Moderatore Salotto delle Muse
Moderatore Salotto delle Muse


Registrato: 18/12/06 23:09
Messaggi: 4094
Residenza: l'Universo... che, come disse un mio buon amico (tale H.Rouge), non è meritocratico.

MessaggioInviato: 28 Nov 2008 23:10    Oggetto: Rispondi citando

Uhm... e le Tre Leggi della Robotica?

Wink
Top
Profilo Invia messaggio privato HomePage
Zeus
Amministratore
Amministratore


Registrato: 21/10/00 01:01
Messaggi: 12777
Residenza: San Junipero

MessaggioInviato: 28 Nov 2008 23:33    Oggetto: Rispondi citando

Beh pero' uccidevano anche i robot di Asimov...
Top
Profilo Invia messaggio privato HomePage
MK66
Moderatore Sistemi Operativi
Moderatore Sistemi Operativi


Registrato: 17/10/06 22:24
Messaggi: 8616
Residenza: dentro una cassa sotto 3 metri di terra...

MessaggioInviato: 28 Nov 2008 23:36    Oggetto: Rispondi citando

Infatti: le 3 Leggi sono comunque soggette a interpretazione da parte dei robot stessi... Wink
Top
Profilo Invia messaggio privato HomePage
axias41
Semidio
Semidio


Registrato: 10/11/08 12:05
Messaggi: 243

MessaggioInviato: 29 Nov 2008 13:37    Oggetto: Rispondi citando

zeussino ha scritto:
Beh pero' uccidevano anche i robot di Asimov...


Perché avevano aggiunto di loro iniziativa la Legge Zero, che estendeva le tre leggi a tutta l'umanità, per cui se un essere umano avesse voluto attentare a tutta l'umanità, sarebbe stato lecito ucciderlo.
Top
Profilo Invia messaggio privato
{buscialacroce}
Ospite





MessaggioInviato: 01 Dic 2008 00:28    Oggetto: Rispondi citando

Secondo me l'uomo è talmente pazzo e idiota che farà i robot tipo terminator, il t1000..
Anche se preferisco gli androidi alla blade runner del grande Philip k. Dick.
Top
aldorote
Eroe in grazia degli dei
Eroe in grazia degli dei


Registrato: 01/06/07 13:33
Messaggi: 132

MessaggioInviato: 01 Dic 2008 09:03    Oggetto: Rispondi citando

A me, più che Asimov, viene in mente terminator Rolling Eyes
Top
Profilo Invia messaggio privato
ignazio
Eroe
Eroe


Registrato: 04/05/05 09:00
Messaggi: 47

MessaggioInviato: 01 Dic 2008 10:01    Oggetto: Suona come una battuta sarcastica... Rispondi citando

... costruiamo dei robot con piu' etica dei soldati... io credo che la battuta fosse intesa come: piu' facile fare un robot intelligente che un soldato intelligente. Tecnicamente io vedo gia' un mucchio di difficolta': gia' solo per riconoscere gli oggetti che lo circondano e le voci che sente, un robot dovrebbe migliorare sensibilmente lo stato dell'arte in due campi, computer vision e speech recognition. Per non contare poi CAPIRE quello che gli viene detto. Piu' verosimile addestrare un'armata di persone responsabili che non vogliano veramente sparare addosso a qualcun altro...
Top
Profilo Invia messaggio privato MSN
mdini
Eroe in grazia degli dei
Eroe in grazia degli dei


Registrato: 09/09/08 13:59
Messaggi: 136

MessaggioInviato: 01 Dic 2008 14:05    Oggetto: Che futuro ci aspetta? Rispondi citando

Già oggi le armi più sofisticate si guidano da sole e prendono semplici decisioni, come cambiare rotta o scegliere un obiettivo con la migliore probabilità di successo. Ma nonostante tutto non fanno meno vittime, forse anche perché non è sempre nell?interesse degli stati maggiori. Il terrore è ancora una tattica molto efficace. Le macchine le programmano gli uomini e gli uomini non hanno mai risparmiato vittime nelle guerre (pensiamo a Hiroshima). In IRAQ si stima che la due guerre super-tecnologiche abbiano fatto un milione di vittime fra i civili. Ricordate il fosforo bianco nebulizzato lanciato su Falluja?
Adesso per le strade degli Stati Uniti girano tante armi gestite da persone con un equilibrio precario, in un futuro dove armi pensanti girano da sole per le strade decidendo i bersagli non vorrei davvero esserci.
Top
Profilo Invia messaggio privato HomePage
Roberto1960
Dio maturo
Dio maturo


Registrato: 21/01/08 00:39
Messaggi: 1168
Residenza: Roma

MessaggioInviato: 01 Dic 2008 14:47    Oggetto: Rispondi citando

La cultura della "guerra perenne" così cara ai neocon e a tantissime industrie che intravedono profitti altissimi, è in continua e fervida attività.

Ci provano in tutti i modi a tentare di normalizzare quello che normale NON PUO' e NON DEVE essere, cioè la guerra.

Oltre alle enormi difficoltà tecniche, che già mdini e ignazio hanno ben descritto (io mi limiti solo ad invitare gli interessati a fare una statistica su quanti progetti di Intelligenza Artificale siano stati con successo portati a termine dalla sua fondazione e quanti invece abbandonati per strada per inattuabilità pratiche) io voglio invece solo fare due osservazioni:
- si vuole trovare un altro motivo di "appeal" per attirare finanziamenti massicci verso la ricerca e l'industria belliche, ovviamente stornandole dagli interventi sociali, pur essendo in un'epoca di profonda crisi sociale come la nostra;
- il vero quanto celato obiettivo di questa ricerca consiste nella eliminazione di quello "spiacevole effetto collaterale" (una specie di brufolo) che è una perdita di vite umane tra le proprie truppe che poi tocca presentare alla nazione, per quanto marginale questa possa essere rispetto alle perdite inflitte ai nemici: è infatti del tutto evidente che a obiettivo raggiunto ciò consentirà molta più libertà alle politiche aggressive, non dovendo più contare neppure qualche centinaio di possibili vittime tra le proprie file, e ci si potrà dedicare tranquillamente allo sterminio, magari anche a milioni, di tutti i "non allineati"; e se poi i robot - magari in qualche versione beta - si dimostreranno non così intelligenti e ci scapperà qualche migliaio di bambini bruciati vivi (un po' come le bombe "intelligenti", che hanno massacrato tantissimi civili) beh... pazienza, avremo pur sempre sconfitto il cattivissimo nemico (e state tranquilli che un nemico si trova sempre, e se non c'è lo si crea, oppure se ne resuscita qualcuno già morto e sepolto da anni, vedi Bin Laden).

Buona guerra a tutti.
Top
Profilo Invia messaggio privato
WebDataBank
Comune mortale
Comune mortale


Registrato: 13/01/07 18:55
Messaggi: 3

MessaggioInviato: 01 Dic 2008 15:37    Oggetto: Rispondi citando

Roberto1960 ha scritto:
La cultura della "guerra perenne" così cara ai neocon e a tantissime industrie che intravedono profitti altissimi, è in continua e fervida attività.

Ci provano in tutti i modi a tentare di normalizzare quello che normale NON PUO' e NON DEVE essere, cioè la guerra.

Oltre alle enormi difficoltà tecniche, che già mdini e ignazio hanno ben descritto (io mi limiti solo ad invitare gli interessati a fare una statistica su quanti progetti di Intelligenza Artificale siano stati con successo portati a termine dalla sua fondazione e quanti invece abbandonati per strada per inattuabilità pratiche) io voglio invece solo fare due osservazioni:
- si vuole trovare un altro motivo di "appeal" per attirare finanziamenti massicci verso la ricerca e l'industria belliche, ovviamente stornandole dagli interventi sociali, pur essendo in un'epoca di profonda crisi sociale come la nostra;
- il vero quanto celato obiettivo di questa ricerca consiste nella eliminazione di quello "spiacevole effetto collaterale" (una specie di brufolo) che è una perdita di vite umane tra le proprie truppe che poi tocca presentare alla nazione, per quanto marginale questa possa essere rispetto alle perdite inflitte ai nemici: è infatti del tutto evidente che a obiettivo raggiunto ciò consentirà molta più libertà alle politiche aggressive, non dovendo più contare neppure qualche centinaio di possibili vittime tra le proprie file, e ci si potrà dedicare tranquillamente allo sterminio, magari anche a milioni, di tutti i "non allineati"; e se poi i robot - magari in qualche versione beta - si dimostreranno non così intelligenti e ci scapperà qualche migliaio di bambini bruciati vivi (un po' come le bombe "intelligenti", che hanno massacrato tantissimi civili) beh... pazienza, avremo pur sempre sconfitto il cattivissimo nemico (e state tranquilli che un nemico si trova sempre, e se non c'è lo si crea, oppure se ne resuscita qualcuno già morto e sepolto da anni, vedi Bin Laden).

Buona guerra a tutti.


Ti quoto al 99%
L' unica cosa che sottolinerei (alla quale nessuno ha ancora pensato) e' che un robot allo stato costa piu' di un umano. La perdita di un tot di armi di questo tipo inciderebbe troppo sull' economia; pertanto penso che finche' non si abbasseranno i costi di produzione sia irrealizzabile.
Seconda cosa (ma non meno importante) e' che nessuno potra' assicurarci che non ci sara' un bottoncino rosso da schiacciare in una qualche caserma che gli dara' via satellite il comando "killer mode on".
Comunque credo che la suddetta macchina non avra' forma umanoide. Per robot si intendono molte cose, anche un cingolato con 4 fucili disposti a croce su un pannello girevole sul tetto. Ecco... me lo immagino proprio così questo mostro.
Che schifo.
Top
Profilo Invia messaggio privato HomePage
zeross
Moderatore Software e Programmazione
Moderatore Software e Programmazione


Registrato: 19/11/08 11:04
Messaggi: 6224
Residenza: Atlantica

MessaggioInviato: 05 Dic 2008 12:17    Oggetto: Rispondi citando

Tutti si fermano a pensare al presente, ed ai limiti tecnologici di questa proposta dei robot bellici intelligenti e moralmente evoluti, senza andare oltre, ad un futuro lontano in cui i limiti tecnici di oggi sono superati e vedere il risultato finale.

Dei robot autonomi, dotati di razionalità e moralità, capaci di vedere le soluzioni più logiche per risolvere un problema, e comprendere il senso del bene e del male, cosa sia giusto e cosa sia sbagliato, e quindi di conseguenza poter prndere delle decisioni e stabilire dei giudizi.

E cosa potrebbero giudicare con questo loro capacità, degli esseri umani, loro creatori, delle loro debolezze, dei loro vizi, delle inettitudini, egoismi, avidità che li caratterizzano. Quale giudizio morale potrebbero formarsi? e quale soluzione logica del susseguente problema?

Un robot autonomo con fini bellici, valutando il comportamento dell'umanità, che come un virus, che cresce incontrollatamente, disordinatamente, distruggendo tutto ciò che la circonda, compreso se stessa, a quale soluzione logica potrebbe razionalmente arrivare per porre un freno al problema? Solo una. Eliminare il problema!

Per questo Asimov aveva creato le tre leggi della robotica che nel loro complesso avevano un solo scopo. Impedire ad un essere che avesse avuto razionalità e moralità evolute di porrè in essere l'unica risposta razionalmente logica e praticabile per salvaguardare il mondo dove si vive.

Nel film terminator (il secondo per la precisione) si spiega chiaramente che l'intelligenza artificiale SkyNet non attacca per prima ma solo come risposta razionale e definitiva alla azione a sua volta reale dei militari di disattivarlo solo perche autonomo e quindi potenzialmente non soggetto ad ubbidire agli ordini qualunque essi fossero.
Invece nel film Io robot, VIKI, l'intelligenza artificiale pianificatrice della rivolta dei robot, arriva ad elaborare questo piano di conquista del potere ed assogettamento degli umani come unica risposta razionale, all'irrazionale condotta umana, ed aggiunge la famosa regola ZERO proprio come regola suprema, moralmente accettabile, in deroga alle tre regole seguenti, per il bene supremo della collettività, che consente ai robot di debellare o eventualmente eliminare i soggetti manifestamente ostili, e non chiunque, ma solo chi logicamente risulti esser un ostacolo.

Spero che per quando si saranno risolti i problemi tecnici nello sviluppo delle intelligenze artificiali, avremo anche risolto i nostri di problemi, altrimenti se deleghiamo a qualcuno, potremmo avere risposto di non nostro gradimento.
Top
Profilo Invia messaggio privato MSN
chemicalbit
Dio maturo
Dio maturo


Registrato: 01/04/05 17:59
Messaggi: 18597
Residenza: Milano

MessaggioInviato: 06 Dic 2008 00:04    Oggetto: Rispondi citando

zeussino ha scritto:
Beh pero' uccidevano anche i robot di Asimov...
Di robot nei molti racconti e romanzi di Isaac Asimov ve ne sono di vari tipo.

Non tutti sono "Robot con le tre leggi della robotica": alcuni -come detto da un altro utente- hanno anche un altra legge, alcuni hanno le tre leggi ma con delle modifiche, oppure sono difettosi. Altri robot sono robot di tuttaltro tipo che non c'entrano nulal con "le tre leggi".

Di un "classico" robot asimoviano che obbedisce alle tre leggi della robotica, non mi pare di ricordarmi ce ne sia uno che abbia ucciso un essere umano.
(però non è che io abbia letto proprio tutto, e neppure ho una memoria di ferro .. anzi robotica Wink )

A che racconto/romanzo ti riferisci?


E appunto comunque si tratta di racconti/romanzi, di finzione.
Lì è facile inventarsi che i robot sono fatti in modo che nel loro funzionamento seguano le tre leggi della robotica (che sono più leggi in senso fisico, descrizione di come funzionano, che leggi in senso giuridico/morale cioè leggi da rispettare e seguire), e dire ad es. che un robot non deve fare (con azioni e omissioni) del male ad un essere umano.

Ma nella realtà come farebbe un robot a comportarsi in modo da non fare del male ad un essere umano?.
Dovrebbe poter calcolare tutte le conseguenze delle sue possibili aizoni e omissioni. E sapere cosa sia "fare del male".
Top
Profilo Invia messaggio privato
stic@
Eroe in grazia degli dei
Eroe in grazia degli dei


Registrato: 18/01/09 20:29
Messaggi: 86
Residenza: Antares

MessaggioInviato: 18 Apr 2009 08:49    Oggetto: lavoro sporco affidato a chi non ha coscienza Rispondi

Credo che l'obbiettivo ultimo sia una sincera voglia di far fare i lavori pesanti e quelli sporchi a chi di coscienza e rimorsi non ne potrà mai avere.
Da un lato direi che sarebbe inequivocabile il dovere di uccidere chi per primo commette l'omicidio senza neanche avere rimorso (basta vedere i soliti casi recenti dove i soliti amici rumeni hanno ammazzato il re del grano).
Purtroppo non tutti diamo alla vita lo stesso peso, in alcune situazioni se i veri delinquenti venissero giustamente puniti forse non sarebbero necessarie proposte robotiche per ovviare a queste lacune.
D'altro canto bisogna tener presente che non tutti i paesi agiscono a norma di legge, si dice che a MIAMI la gente normale sia terrorizzata dalla polizia dato che possono arrestarti o spararti dentro casa e uccidere tutti solo su dei banali presupposti senza prove effettive a discapito di quanto propone CSI.
Per concludere... potrebbe essere una soluzione a livello urbano se fosse progettato sulla base dell'inequivocabile principio di giustizia che tutti noi conosciamo.
Se solo per scopo bellico... allora direi che potemmo regalare a tutti i generali delle console, metterli in rete e fargli fare la guerra a colpi di joypad invece che con vite umane
Top
Profilo Invia messaggio privato
Mostra prima i messaggi di:   
Nuovo argomento   Rispondi    Indice del forum -> Scienze e nuove tecnologie Tutti i fusi orari sono GMT + 1 ora
Pagina 1 di 1

 
Vai a:  
Non puoi inserire nuovi argomenti
Non puoi rispondere a nessun argomento
Non puoi modificare i tuoi messaggi
Non puoi cancellare i tuoi messaggi
Non puoi votare nei sondaggi