Precedente :: Successivo |
Autore |
Messaggio |
Zeus News Ospite
|
Inviato: 08 Gen 2013 13:51 Oggetto: L'IT debt si sposta dal CED al cloud |
|
|
Leggi l'articolo L'IT debt si sposta dal CED al cloud
Il Global IT debt è in crescita con una previsione per il 2015 di 1 trilione di dollari.
Foto via Fotolia
|
|
Top |
|
 |
druido77 Mortale pio

Registrato: 14/02/11 10:55 Messaggi: 20
|
Inviato: 08 Gen 2013 16:00 Oggetto: |
|
|
Il cloud obbliga a condividere i dati con un provider esterno. Non è una percezione, è un dato di fatto.
Il cloud è una innegabile comodità ma il problema principale è che i costi non si abbattono più di tanto nella PMI, anzi. Partiamo da un dato di fatto: il cloud non fa tutto e quindi servono comunque dei server aziendali per gestire le funzionalità non offerte dal cloud.
Anche se fosse, serve comunque un sistemista interno (o figura equivalente) per gestire i client locali, gli apparati di rete, la connettività, l'aggiornamento degli antivirus, ...
La connettività, in un sistema cloud, è fondamentale e quindi bisogna sostenere delle spese maggiori per avere maggiori garanzie. Se i dati sono locali, un'azienda può tollerare una interruzione di connettività di qualche ora. Se i dati sono remoti, questa tolleranza non esiste. |
|
Top |
|
 |
mar.ste Eroe in grazia degli dei

Registrato: 10/01/07 17:27 Messaggi: 162
|
Inviato: 09 Gen 2013 10:09 Oggetto: |
|
|
Secondo me vale la pena di esternalizzare solo le applicazioni veramente "commodity" come ad esempio l'email.
Per quelle non commodity spesso il costo di integrazione e di gestione interna da sommare a quello esterno le rende spesso pressoché equivalenti da un punto di vista economico, ma viste le limitazioni come i dati esternalizzati e la maggiore rigidità nelle scelte future, da sommare agli aspetti burocratici come contratti, verifica livelli di servizio, etc. ed ai rischi controparte, le rende poco attrattive. |
|
Top |
|
 |
spacexplorer Dio minore

Registrato: 08/10/09 11:22 Messaggi: 610
|
Inviato: 09 Gen 2013 11:00 Oggetto: |
|
|
Un piccolo sassolino: "Cloud Computing" è un nome commerciale privo di alcun
significato tecnico, non esiste una "tecnologia cloud" esistono e son nate ben
prima che fosse lanciato il termine "cloud" varie tecnologie di rete.
Detto questo "il cloud computing" inteso come far girare i propri software e
lasciare i propri dati in mano a terzi limitandosi ad un'interazione basata
su browser è una riedizione di un paradigma *abbandonato* per i troppi costi
e problemi: i vecchi mainframe.
Allora era un super-duper-"server" con tanti "thin client" o "terminali
stupidi", i terminali costavano poco ed amministrare il tutto era facile
peccato che quando c'era un guasto *tutti* erano fermi e il serverone non
fosse affatto economico, scalabile, aggiornabile, spostabile ecc. Oggi non
è diverso, il mainframe è stato sostituito da un'infrastruttura IT di terze
parti, quasi sempre offshore, e la rete tra terminali stupidi (che di fatto
per potenza di calcolo non lo sarebbero) da locale è diventata esterna e
globale. Il risultato? Se il mainframe ti si rompeva rompevi le scatole al
tuo tecnico da te pagato ed all'interno della tua azienda zampettante oggi
se ri rompe Amazon, Salesforce ecc (già capitato più volte) non rompi le
scatole a nessuno né sai alcunché perché detti vendor ricevono solo mail e
rispondono se, quando e come vogliono, la leva commerciale del singolo
cliente su di loro è *minima* il 99% dei loro utenti sono una frazione
talmente piccola del loro business che non hanno praticamente potere. In
più la LAN è in loco, internet è sparsa e ci sono millemila soggetti in
mezzo: se non va la connessione il tuo nebuloso venditore di cetr^H^H^H^H
servizi ti dice: "non è colpa mia, è la tua telco che ha un guasto" e ci
si passa allegramente il barile.
C'è un'altra famiglia di tecnologie di cui si parla dagli anni '80 ed anche
prima: il computing distribuito, ovvero il paradigma opposto alle nuvole di
Amazon, Google, Aruba, TelecomItalia ecc ovvero il paradigma dei cluster
esteso da capo a fondo: tutti i servizi sono distribuiti su tutte le macchine
disponibili. Faccio un esempio ad oggi fattibilissimo e ad oggi non fatto se
non in casa a grandi aziende poiché "non piace", ai venditori di cetrioli.
Solo come esempio: avete un ufficio con 10 computer, taaanto spazio disco
rispetto a quel che realmente serve, ma un disco da 320Gb costa anche meno
di un vecchio 80Gb quindi non ha senso cercare roba piccola, al massimo si
mette un ssd per l'os e fine.
Bene: al posto di comprare oltre ai desktop un server di file, di stampa, di
quel che vi pare perché non usare lo spazio extra? Se ogni computer usa si e
no 20Gb su disco perché non replicare in LAN in vari dischi dei singoli
computer in un fs distribuito? Vi eliminate il server, i backup locali, e ci
sono molte meno probabilità di un blocco totale. Cosa ci vuole per farlo?
Dunque di fs distribuiti ne abbiamo un bel po', da decenni: Coda, Tahoe-lafs,
XtreemFS, Gluster, Ceph, AFS, HDFS tanto per citare i più famosi, sono usati
da un mucchio di organizzazioni da Google al Cern all'appassionato domestico.
E i backup offsite? Si fanno via snapshot come tutti i backup che facciamo e
come si inviano dal fileserver si inviano da qualsiasi nodo della rete, anche
qui il provider esterno o un altro ramo dell'azienda sito in un'altra parte
del mondo prende in carico il backup, ovviamente cifrato in loco, via software,
con chiavi in mano proprie e non inviate in giro. Qui se l'Amazon di turno si
guasta si continua a lavorare, se si vuol passare ad altri si rifà il proprio
backup e che il vecchio provider vada dove vuole, gli unici dati che ha son
cifrati e li abbiamo in casa quindi...
Questi concetti si son diffusi nelle reti p2p ma son sempre stati osteggiati
altrove non solo perché liberano l'utente dal giogo del vendor ma anche
perché è fottutamente difficile controllare simili reti: la censura cinese
come quella USA e quella nostrana non sarebbero affatto daccordo, non ci
sarebbe manco accordo su un voto elettronico distribuito e hash-ato, non si
può far brogli senza la quasi certezza di essere scoperti...
Aimé la maggior parte delle aziende sono dirette da manager che han studiato
e venerano al scuola USA (i cui risultati economici si vedono, sono da sempre
in crisi e solo facendo i bulletti riescono a vivere) dove si predica che la
tecnica è una commodity e il manager è Dio. Ovviamente il manager guarda i
risultati a 6 mesi e nulla sa o si interessa dell'andamento dell'azienda nel
medio e lungo periodo, non parliamo poi dei rischi, si truffano i clienti ogni
giorno ma il Grande Provider vincolato da un contratto sa se medesimo scritto
che esclude ogni responsabilità tra l'altro garantirà per divina provvidenza
che problemi non ce ne siano mai...
Ma solo una domanda anche se non avete o gestite aziende e reti informative
varie: avete provato ad esportare i vostri contatti FaceBook? Avete provato
a "uscire" da Google, FaceBook, $altro? Che risultati avete ottenuto? Avete
provato a caricare una manciata di Mb di documenti e guardato quanto ci vuole?
Avete pensato cosa succede se in vostri documenti sono su Google Drive e non
c'è una connessione decente?
Il "cloud" è comodo solo perché si fa di tutto per raccontarlo e nascondere
le altre tecnologie, per il cliente finale NON È MAI COMODO. |
|
Top |
|
 |
{Alex} Ospite
|
Inviato: 09 Gen 2013 21:30 Oggetto: |
|
|
Quoto spacexplorer in toto.
Una simile lucida disamina meriterebbe ben altra visibilità... |
|
Top |
|
 |
janez Dio minore


Registrato: 07/12/11 16:24 Messaggi: 513
|
Inviato: 10 Gen 2013 18:57 Oggetto: |
|
|
Anche in questo campo conta molto quello che si pubblicizza, che spesso è sempre la stessa frittata girata e rigirata. Una volta si parlava di Outsourcing, che vuol dire dare ad altri in gestione i propri dati, i propri applicativi, i propri sistemi, la gestione dei sistemi, la realizzazione delle applicazioni, tutto o in parte secondo cosa si voleva fare o secondo cosa veniva deciso dal management aziendale in funzione di chissà quali argomenti (bilancio, politica, riduzione personale, ...).
Ora il concetto di outsourcing, ripennellato e con qualche infiocchettatura messa a disposizione dall'ambiente internet e dal potenziamento della rete e delle comunicazioni, viene riproposto col nome di cloud.
Ma ce la vedete una banca ad esempio in Italia o in Europa a piazzare i propri server e dati in Cina o in India (perché quella è la soluzione cui mirano i grandi vendor come IBM, HP, Oracle, ecc...) ? |
|
Top |
|
 |
Cesco67 Dio maturo

Registrato: 15/10/09 11:34 Messaggi: 1758 Residenza: EU
|
Inviato: 11 Gen 2013 01:04 Oggetto: |
|
|
spacexplorer ha scritto: | ...
Bene: al posto di comprare oltre ai desktop un server di file, di stampa, di
quel che vi pare perché non usare lo spazio extra? Se ogni computer usa si e
no 20Gb su disco perché non replicare in LAN in vari dischi dei singoli
computer in un fs distribuito? Vi eliminate il server, i backup locali, e ci
sono molte meno probabilità di un blocco totale. Cosa ci vuole per farlo?
... |
Condivido tutto il resto del post pero', siccome sono ignorante in materia, mi farebbe piacere se qualcuno mi spiegasse cosa succede se in una configurazione come quella descritta da spacexplorer nel quote che ho riportato uno o piu' pc non e' acceso o si guasta o si infetta
TIA  |
|
Top |
|
 |
spacexplorer Dio minore

Registrato: 08/10/09 11:22 Messaggi: 610
|
Inviato: 11 Gen 2013 10:10 Oggetto: |
|
|
@Cesco67
se un nodo non è acceso o è disconnesso semplicemente non viene aggiornato,
quando si riconnette resincronizza i dati ovvero invia le sue modifiche e
riceve le modifiche degli altri nodi. L'unico problema è il caso in cui un
file sia stato modificato fuori sincronia sia sul nodo staccato/spento sia
da altri in rete, è un problema noto e "aggirato" da decenni dai vari
software di controllo versione, per far qualche nome bazaar, git, mercurial,
svn, cvs, rcs, ...
In genere questo non avviene poiché il lavoro è suddiviso, è raro che due
o più soggetti modifichino contemporaneamente lo stesso file, quando si è
connessi c'è il locking delle risorse in uso come per un fileserver classico
ovvero tizio e caio non possono scrivere assieme lo stesso file, quando non
lo si è si risolve a mano il conflitto, nella fattispecie ti appare una
finestrella "pippo pluto e paperino sono stati modificati da te e da un altro
quando eravate sconnessi, cosa faccio? Tengo la tua versione, la sua versione
o vuoi vedere le differenze?"
Se un pc si "infetta" la cosa si replica su tutti ovviamente, ma poiché solo
Windows ha la caratteristica di "infettarsi" e non vi sono fs distribuiti per
tale ambiente il problema direi non si ponga più in generale avendo ogni
blocco dati il suo hash/checksum se una macchina viene bucata si possono
avere procedure IDS/IPS molto efficienti: "com'è che tu hai cambiato un file
di sistema e noi no?"
La sincronia non avviene allo stesso modo per la home (ovvero documenti ed
impostazioni personali) e per il sistema operativo, ogni volume/partizione
ha le sue policy e i suoi ruoli. Se vieni da Windows e non conosci Solaris
o anche GNU/Linux ti risulterà un po' ostico come concetto perché Windows
fa una minestra di tutto, non c'è mai una chiara divisione tra cos'è
dell'utente e cos'è del sistema, su OSX essendo uno unix c'è un minimo di
separazione ma viene "nascosta" dalla GUI e anche qui si percepisce poco...
Un "virus" in ambiente *nix dovrebbe essere eseguito dall'utente, da solo
non si esegue non esistendo il concetto di autoesecuzione, quindi non puoi
prendere virus navigando su qualche sito web o mettendo una penna usb, non
puoi prenderlo manco quando scarichi un file e tenti di aprirlo poiché per
default il file non ha permessi di esecuzione, devi darglieli a mano. Se
gli hai dato permessi di esecuzione e lo esegui e questo è un programma
maligno funzionante oltre la home, ovvero oltre i tuoi documenti/impostazioni
non può andare quindi tu vieni "infettato" sulla tua macchina fisica come
su ogni macchina dove fai login, ma nessun altro utente può venir toccato né
sulla tua né su altre macchine. Solo gli amministratori possono modificare
qualcosa a livello di sistema e gli account di amministrazione non si usano
per attività diverse, il software viene installato da repository remoti con
firma e hash su ogni pacchetto, non si scarica roba da chissadove e non ci
sono cd/dvd/penne usb con software sottomano, non esiste il concetto di
"installa cliccando avanti avanti avanti" c'è un'applicazione che gestisce
tutto il software e bon.
Per capirci il Play Store come iTunes Store sono brutte copie dei repo UNIX
arrivate con decenni di ritardo, il principio di funzionamento è analogo.
Poi certo se sei amministratore (root) puoi fare quello che vuoi, ma sei
consapevole di farlo quindi...
Sono stato più chiaro? |
|
Top |
|
 |
Cesco67 Dio maturo

Registrato: 15/10/09 11:34 Messaggi: 1758 Residenza: EU
|
Inviato: 12 Gen 2013 00:14 Oggetto: |
|
|
spacexplorer ha scritto: | ...
Sono stato più chiaro? |
Se quello che ho capito (che riporto piu' in basso) e' corretto allora lo sei stato
Avevo capito che i vari pc collegati fra loro fossero il fileserver organizzati in una sorta di raid 0, mentre mi pare di aver capito che si, "sono" il fileserver ma come fosse un raid 1, cioe' tutti i file sono replicati su tutti i pc. Corretto?
La cosa e' interessante, e c'e' anche il vantaggio che si lavora con i file in locale a tutto beneficio della velocita' di "trasferimento" e il backup viene svolto dal sistema una volta chiusa l'applicazione. Corretto anche questo?
Pero' vedo gia' un problema, e cioe' il sistema operativo non windows, per cui i sw per questo os (ci sono parecchi sw professionali, ed io ne uso alcuni quotidianamente, non disponibili per altri sistemi operativi) non possono essere utilizzati se non su macchina virtuale, ammesso sia possibile installare una VM su configurazioni di questo tipo. |
|
Top |
|
 |
spacexplorer Dio minore

Registrato: 08/10/09 11:22 Messaggi: 610
|
Inviato: 12 Gen 2013 13:51 Oggetto: |
|
|
È un po' più complesso del raid 1 poiché non puoi garantire che ogni nodo
abbia spazio sufficiente per tenere in locale il 100% dei dati di tutti i
suoi omologhi: vi sono vari algoritmi già in uso da decenni e diciamo che
si possono riassumere in: ogni nodo
- ha i dati che usa più frequentemente i.e. "i suoi"
- ha l'"indice"/sa costruire l'indice di tutti i dati della rete
- ha una parte di dati "di terzi"
L'algoritmo fa si, anche adattandosi statisticamente, di distribuire un numero
sufficiente di copie su nodi distinti per cui non si verifichi il caso in cui
qualcuno richieda certi blocchi dati e tutti gli host che li hanno siano
offline.
Su una rete piccola dove il numero di host offline è mediamente alto c'è la
possibilità di una replica completa su ogni nodo essendo la massa complessiva
di dati "piccola", su una rete geografica di n nodi si usa questa "replica
distribuita" che se vuoi puoi vedere come una sorta di raid5 a n dischi
Non viene svolto alcun backup alla chiusura di un'applicazione poiché il fs
è ad un livello più basso: qui parliamo di blocchi dati, non di files, ed il
sistema lavora sui singoli blocchi. Quando un'applicazione apre in scrittura
un insieme di blocchi questi sono "bloccati" e c'è un meccanismo di copy on
write ovvero chiunque può leggere, ma non scrivere; chi scrive non va a
sovrascrivere i vecchi dati ma scrive da una parte e quando l'operazione di
salvataggio è completata semplicemente si passa alla "nuova parte" lasciando
"la vecchia" libera per scritture future. Questo sistema è usato ad esempio
dal btrfs e dallo zfs ma anche in parte dall'ntfs di Microsoft... Quel che un
filesystem "moderno" fa è un po' più complesso di scrivere e leggere a
richiesta, c'è una bella parte di sofisticazione per garantire la coerenza
delle scritture, l'organizzazione dello spazio fisico ecc ma questo non è una
novità ed è applicato a tutti i fs in circolazione locali come distribuiti
Non c'è infine alcun problema ad installare quel che ti pare, un sistema
distribuito dal punto di vista di quel che gli gira sopra è identico ad uno
locale come identico è un fs client-server tipo nfs o cifs di Microsoft...
Quanto alle applicazioni Windows, ci sono ben pochi settori e solo domestici
o da piccole attività ad avere applicazioni solo Windows, il 100% dei
progetti grossi e delle infrastrutture IT, Microsoft ed Apple incluse è UNIX
o GNU/Linux. Windows è diffuso solo a livello SOHO e solo sui desktop. Per
capirci la Fiat progetta con NX, Airbus con Catia, Aréva le sue centrali
nucleari le calcola con Code_Aster, ecc il mito che le applicazioni
professionali siano Microsoft è un mito creato ad arte da taluni commerciali
ma non ha riscontro pratico! |
|
Top |
|
 |
Cesco67 Dio maturo

Registrato: 15/10/09 11:34 Messaggi: 1758 Residenza: EU
|
Inviato: 13 Gen 2013 17:05 Oggetto: |
|
|
Adesso mi e' abbastanza chiaro, grazie delle spiegazioni
Per il discorso dei sw per win o meno non e' la sede adatta per "scannarsi" , sappi solo che chi fa il mio mestiere se spera di utilizzare altri os oltre windows diventerebbe disoccupato all'istante fino a data da definirsi... |
|
Top |
|
 |
spacexplorer Dio minore

Registrato: 08/10/09 11:22 Messaggi: 610
|
Inviato: 14 Gen 2013 09:00 Oggetto: |
|
|
Hum... Se non so il mestiere non posso rispondere manco in privato, cmq non
ho ancora trovato settori dove allontanarsi da Windows sia improponibile,
ammesso che non lavori per Microsoft beninteso!
Tieni presente che con Vista Microsoft ha fatto capire che XP non si può più
mantenere. Piaccia o meno. È stato vagamente accettato da alcuni, vagamente
ignorato da molti coll'uscita di 7, poi con 8 è arrivato il flop totale: a
parte qualcono che ancora ronfa su XP è stato chiaro a tutti che gli OS si
aggiornano regolarmente come si fa da sempre in ambiente GNU/Linux, anche il
ferro si aggiorna di conseguenza, piaccia o meno.
Ora Windows l'unica ragione pratica/non commerciale/d'ignoranza per cui tanti
lo usa(va)no è/era che XP era sempre XP: per anni si è dormito su questo
concetto e molte manie a tema nebuloso sono proprio nate da questo: evitare
di aggiornare realmente l'OS perché tanto il resto del mondo si aggiorna via
internet di nascosto, l'unica cosa che l'OS deve fare è far girare un browser.
Si è capito pian piano che al di la dei discorsi sul cloud di cui ai post
precedenti c'è un problema: il browser non è un mattone a sé stante, usa
l'OS su cui gira cossicome l'OS girando sul ferro e andando i rete deve
parlare le lingue del ferro e della rete. Anche quest'ultimo spiraglio per
gli XP-ostinati è crollato. Ora citare Goldman Sachs con tutto quel che
combinano non è il massimo ma se leggi cosa pensano del futuro di
Microsoft: link qualche idea te la fai, se ci aggiungi i
job report di terzi: link e chiaccheri con qualche tecnico
informatico di negozi del centro di medio-grandi città completi il quadro. |
|
Top |
|
 |
Cesco67 Dio maturo

Registrato: 15/10/09 11:34 Messaggi: 1758 Residenza: EU
|
Inviato: 15 Gen 2013 00:27 Oggetto: |
|
|
spacexplorer ha scritto: | Hum... Se non so il mestiere non posso rispondere manco in privato, cmq non
ho ancora trovato settori dove allontanarsi da Windows sia improponibile,
ammesso che non lavori per Microsoft beninteso! | "Tranquillo", non lavoro per M$
Forse non si capisce, ma non e' che ci tenga in particolar modo ad usare win o altro os. Dicevo solamente che alcuni settori, per lo meno quello dove lavoro io (programmazione PLC, HMI, progettazione elettrica e "dintorni") al momento non c'e' alternativa alla M$. Ma anche ammesso ci sia un qualche prodotto, che personalmente non conosco, che si programma con un tool che gira su [qualsiasi os che non sia windows], per utilizzare i prodotti dei grandi nomi del settore (che equivale alle richieste di un buon 90% dei clienti) si e' legati a Redmond. |
|
Top |
|
 |
spacexplorer Dio minore

Registrato: 08/10/09 11:22 Messaggi: 610
|
Inviato: 15 Gen 2013 23:04 Oggetto: |
|
|
L'elettronica è uno dei settori dove GNU/Linux è più fortemente osteggiato
ed ignorato in buona parte dagli addetti ai lavori, questo è vero, del resto
come avrebbero fatto a sabotare il programma nucleare iraniano senza i buchi
più che bachi dei PLC Siemens? Se il software fosse meno blindato, se il
concetto di opensource arrivasse all'elettronica i big attuali sarebbero
messi male, dovrebbero competere coi cervelli al posto dei brevetti e la
cosa non è per nulla facile
Ad ogni modo per quanto ne so anche a tema elettronico si stan muovendo in
parecchi anche perché ad oggi di SCADA&c non mi pare nessuno si sia schiodato
da XP e quando dovranno per forza farla toccheranno con mano (o saran toccati
in un'altra parte del corpo che fa rima con mano) cosa vuol dire restare fermi
in un mondo che evolve...
A tema elettrico/impiantistico l'opensource è poco diffuso a livello medio
e basso ma è lo standard per alcuni big del settore per lo più francesi,
solo per dire EDF o Aréva e qualcosa di russo, qui rispetto all'elettronica
si è messi molto meglio; settori come il piping sono praticamente al 100%
unix (Solaris, GNU/Linux e qualcos'altro di "residuale")... |
|
Top |
|
 |
Cesco67 Dio maturo

Registrato: 15/10/09 11:34 Messaggi: 1758 Residenza: EU
|
Inviato: 20 Gen 2013 17:45 Oggetto: |
|
|
@ spacexplorer
Non tutto cio' che hai scritto e' corretto, pero' stiamo andando tremendamente OT
Se ti interessa approfondire apri pure un nuovo thread, io qui di questi argomenti non intervengo piu' |
|
Top |
|
 |
|
|
Non puoi inserire nuovi argomenti Non puoi rispondere a nessun argomento Non puoi modificare i tuoi messaggi Non puoi cancellare i tuoi messaggi Non puoi votare nei sondaggi
|
|