28.2.05

[analisi fallaci] John Dvorak su come uccidere Linux

John Dvorak è un famoso editorialista di PcMagazine, atrettanto famosa rivista americana di tecnologia.
E' famoso per le sue opinioni spesso fuori dal coro che a volte denotano un'eccellente visione prospettica, a volte una scarsa attenzione, a volte una propensione alla zizzania.
Per darvi un'idea della sua visione, Dvorak affermò nel 1984, con grande lungimiranza:"Questi Apple hanno un dispositivo chiamato mouse. Non ne vedo l'utilità e non prevedo che vengano usati in futuro". Ma è lo stesso Dvorak che nel suo blog ospita annunci Google solo per dimostrarne la difformità col contenuto circostante.
Ebbene, la scorsa settimana se ne esce con il suo editoriale dal titolo "How to kill Linux", in cui narra come ha appreso di un "progetto segreto" volto a far girare Linux come un processo di Windows (Lindows?), progetto che per il momento è stato accantonato per l'overhead che introdurrebbe (=progetto inutile).
Ma, suggerisce Dvorak, se si togliesse Windows, lasciando soltanto il layer dei driver, M$ potrebbe rilasciare un MS-Linux (MSLinux .org, falso - colinux.org, vero) che utilizza il suo plug-n-play onniscente, il suo Linux diverrebbe il più utilizzato, i programmatori smetterebbero di sviluppare per un Linux semi-commerciale e il sistema operativo open source finirebbe miseramente i suoi giorni.
Ecco alcune critiche che mi sento di muovere alla sua analisi:
  • a proposito della disponibilità di dei driver, mi è sembrato di leggere un articolo di 3-4 anni fa. Al momento attuale la stragrande maggioranza dei produttori di hardware forniscono driver dei loro prodotti anche per Linux
  • le distribuzioni ufficiali sono dotate di un corredo di driver in grado di coprire quasi ogni esigenza: io ho installato Linux su un Pentium 100, ho collegato su una macchina più recente una fotocamera, una videocamera, stampante etc senza problema. Non conosco nessuno, al momento, che utilizzi Linux e che abbia sperimentato nell'ultimo anno problemi di driver
  • le più grandi aziende si software e hardware stanno contribuendo allo sviluppo di nuovo materiale basato su Linux. Ogni grande azienda informatica che non si chiami Microsoft sta lavorando attivamente per promuovere Linux
  • investire su Linux richiede la condivisione di standard e licenze aperte: se M$ portasse un suo layer di driver verso Linux potrebbe sì intenderla come operazione commerciale, e quindi richiedere un costo di licenza, ma contribuirebbe a sua volta alla causa di Linux. L'iniziativa potrebbe essere accolta dalle aziende, se e solo se il costo della licenza fosse comunque contenuto. Non vedo infatti il reale vantaggio di una tale offerta, considerato che le aziende attualmente stanno utilizzando il sistema operativo con grande soddisfazione e pochi grattacapi.

L'informatica , attuale così come quella futura, sarà sempre più basata su standard aperti, che ci permettano di raggiungere un alto grado di sicurezza e consentano a organismi indipendenti di valutare e giudicare il prodotto. Si possono fare molte ipotesi su come tentativi di monopolio o di diffusione di sistemi proprietari possano minare questa tendenza, ma quando un movimento nato dal basso riesce a muovere anche le aziende più importanti verso investimenti consistenti, come pensare che un'azneda sola possa fare il mercato?

[tendenze] IBM campione dell'open source

Non crediatemi un fan di IBM solo perchè ultimamente ho dedicato a Big Blue più spazio che ad altri; ne parlo perchè credo che i suoi movimenti nell'ambito dell'open source siano così significativi da definire un modello di approccio al nuovo paradigma.
Le ultime azioni (la donazione di 500 brevetti software, il contributo di 30 progetti a Sourceforge, la collaborazione con Zend per creare un ambiente di programazione per php), unite al suo impegno nei confronti di Linux, mostrano come IBM si stia dedicando più degli altri al mondo open source e come si voglia far percepire come paladina del movimento.
Negli ultimi mesi, infatti, le notizie si sono susseguite a ritmo piuttosto incalzante: questo tipo di dinamismo fa parte di un modello di marketing che prevede la comunicazione all'audience di una nuova caratteristica dell'azienda, un nuovo profilo che rinforza l'immagine del suo brand anche in ambienti dove non è così popolare. Le comunicazione si devono susseguire a brevi lassi di tempo, in modo che il pubblico non si dimentichi di una singola notizia, ma sia sottoposto a una continua sollecitazione.
Non conosco ancora l'entità dei brevetti software donati all'open source e dei 30 progetti a Sourceforge, ma so per certo che IBM ha compreso come l'asse dell'IT si stia spostando verso i servizi grazie al successo dell'open source e desidera far percepire alle aziende che la migrazione verso i sistemi "realmente" aperti oltre ad essere estremamente vantaggiosa, è un processo inevitabile e irriducibile, da cui tutti possono guadagnare, sia chi produce sistemi e software, sia chi li andrà a utilizzare.

25.2.05

[tendenze] Il ritorno del Network Computer

Ma se ne poi andato mai via?
Il mio primo articolo sul Network Computing è esattamente di 10 anni fa: lo pubblicò Internet News (ora Internet.pro), ma purtroppo ora non è più raggiungibile.
Se non ricordo male si parlava della JavaStation e dei NC di IBM, nonchè di altri pionieri dei queste architetture.
A 10 anni di distanza, qual è stata l'evoluzione dei cosiddetti thin client?
Ebbene, Sun ha ultimamente rilasciato il Sun Ray 170, un alternativa ai prodotti Wyse come Winterm S30 e Winterm S50.
L'S30 ospita un Windows CE 5.0 e l'S50 una distribuzione Linux con kernel 2.6, ma, a differenza del prodotto Sun, non si tratta di veri e propri thin client, ma piuttosto di dispositivi embedded.
Il Sun Ray non ospita un vero sistema operativo, ma solo uno stack TCP/IP e un sistema di visualizzazione: il lavoro viene svolto dal Sun Ray Server, che, con la release 3.0, può girare su Solaris o Linux. Con il client ci si collega alle applicazioni residenti su uno o più server.
Il limitato sistema operativo del client Sun ha molte meno features di Windows CE o di Linux, il che lo rende più semplice da amministrare e più sicuro.
Con una rete di terminali Wyse, gli amministratori sono costretti a distribuire patch sia sul server che sui client, mentre con Sun Ray è necessario installare la patch solo sul server.
Patchare decine di terminali non è molto differente che distribuire patch su decine di PC.
Il Total Cost of Ownership tende asintoticamente a 0, più un client è privo di logica e di accessori, e mi meraviglia che non ci sia un maggior interesse da parte delle aziene e istituzioni che dispongono di reti distribuite e che litigano quotidianamente con aggiornamenti, virus e patch.
Ricordo che lo US Postal Service anni fa aveva adottato le macchinine Sun per i suoi uffici, e mi sambra un caso di successo estremamente importante. Staremo a vedere.

24.2.05

[tendenze] XEN, ovvero la Virtualizzazione Open Source

La notizia proviene da LinuxWorld 2005: Xen, un sistema open source che permette di far girare diversi sistemi operativi su un solo elaboratore x86, è stato presentato al pubblico vantando il supporto di aziende come Sun Microsystems, Hewlett-Packard, Novell, Red Hat, Intel, AMD e IBM.
L'unico attuale concorrente di Xen è VMWare, di EMC, la piattaforma che per prima ha portato la virtualizzazione nel mondo dei sistemi basati su Intel.
Nel mondo dell'open source, gli unici due concorrenti di Xen, Plex86 e User-mode Linux, non sembrano di godere dello stesso tipo di supporto.

I piani delle aziende
Novell inserirà Xen nella nuova SuSE Linux Professional 9.3 e successivamente nella SuSE Linux Enterprise Server, mentre Red Hat la sperimenterà nel Fedora Core 4 e sarà probabilmente presente nella versione 5 del Red Hat Enterprise Linux
Entrambe le società hanno allo studio strumenti di management.
HP e Intel hanno contribuito al progetto con del software, mentre AMD contribuirà al porting di Xen sui suoi chip a 64 bit.
Ancora Intel sta sperimentando il sistema sul suo Itanium, mentre IBM ha ipotizzato un porting su chip Power.

Sistemi operativi
Attualmente Xen è in grado di supportare Linux 2.4, Linux 2.6 e NetBSD. FreeBSD è in corso di rilascio, mentre pare che anche Sun stia muovendo i primi passi con il porting di Solaris per x86.

BLinks:

23.2.05

Virus all'attacco delle automobili: ma è solo l'inizio dell'apocalisse?

Segnalovi l'articolo di Roberto Venturini su Apogeonline sui pericoli delle automobili troppo intelligenti e su quelli ancora peggiori di automobili con sistemi operativi "made in M$"

[sicurezza] Classificare le vulnerabilità dei sistemi con il Common Vulnerability Scoring System

Da domani il grado di sicurezza di un sistema (operativo, software, etc) sarà definito da uno standard che misurerà il grado di vulnerabilità: denominato Common Vulnerability Scoring System (CVSS), vedrà lo sforzo iniziale di Cisco Systems, Microsoft, Qualys, Symantec, eBay Inc., Qualys Inc., Internet Security Systems Inc.. Mitre Corp.
Annunciato alla RSA conference di San Francisco, il nuovo modello di classificazione ha lo scopo di rendere univoche le metriche di sicurezza che attualmente sono proprietarie dei singoli produttori, e aiutare gli amministratori di sistema che disporranno così di un metodo per valutare la gravità delle vulnerabilità e dare una priorità alle attività di patching.

Il CVSS utilizzerà equazioni standard per calcolare la gravità di nuove vulnerabilità, basandosi su informazioni quali:

  • la possibilità di sfruttare la vulnerabilità da remoto,
  • la necessità di collegarsi direttamente a un sistema per sfruttarne i buchi di sicurezza,
  • l'intervallo di tempo di pubblicazione di un explot e una patch
  • la possibilità di accesso a informazioni sensibili o confidenziali
  • la possibilità di modifica di dati

Il CVSS farà uso del Common Vulnerabilities and Exposures (CVE) , il dizionario delle vulnerabilità mantenuto dal Mitre, ideato per definire identificativi e informazioni standard sulle vulnerabilità dei sistemi.

21.2.05

[tendenze] Per una standardizzazzione della Messaggistica Istantanea

In questo momento ho 3 (tre) strumenti che utilizzo per la messaggistica istantanea e la telefonia via Internet (se così si può definire): MSN Messenger, Yahoo Messenger e Skype.
Fino a pochi mesi fa usavo anche ICQ, ma l'ho abbandonato per inutilizzo forzato.
Ebbene, gestire 3 strumenti di IM, quando si hanno svariate altre attività da fare, può diventare un compito piuttosto fastidioso, poichè:

  • devi passare da uno all'altro, e quindi avere a che fare con 3 interfacce diverse;
  • succhiano risorse, non molte, ma pur sempre risorse. Sebbene utilizzi Windows, che non fa dell'ottimizzazione delle risorse un suo cavallo di battaglia, io sono per un'ecologia della RAM e della CPU;
  • quando si è assenti ma si lacia il computer attivo è opportuno cambiare il proprio stato, giusto per rispetto alla vecchia Netiquette.

Non che queste si possano definire seccature, ma traslatevi nel mondo materiale e pensate cosa succederebbe se aveste a disposizione un diverso apparecchio telefonico per tutte le reti a cui siete connessi: usate il telefono rossiccio per Telecom, quello bluette per Infostrada e quello giallognolo per fastweb, sebbene tutti e tre siano collegati alla stessa linea. Inoltre avreste a disposizione tre elenchi telefonici diversi. Comodo, no?

Cosa ostacola quindi i gestori di reti di messaggistica a interoperare tra loro? Al momento, Microsoft, Yahoo e AOL hanno stabilito di interoperare soltanto negli ambienti aziendali (vedi articolo), ma anche in Internet sarebbe semplice implementare un protocollo comune, come quello di Jabber, che è basato su XML, è open source e decentralizzato. Chiunque può infatti ospitare un server jabber e isolarlo dalla rete pubblica, incrementando così la sicurezza.

Ogni applicazione di IM poi potrebbe offrire le sue features peculiari: Skype come hub di chiamate sulla rete telefonica, Yahoo e MSN come piattaforme informative. Metodi di differenziare un applicazione che gravita intorno a un core use ce ne sono a bizzeffe, non serve neanche lavorare troppo di fantasia.

E quindi, cosa aspettano?

In realtà la questione è diventata meno importante da quando ho scoperto questa pagina su BigBlueBall: c'è una bellissima matrice di interoperabilità di tutti gli IM sul mercato e ne esistono alcuni in grado di interfacciarsi con MSN, Yahoo, ICQ, Jabber e altro ancora.

Se quindi gli IM dominanti vogliono continuare a crescere, non devono puntare solo sui contenuti extra, ma anche sulla condivisione di un comune standard aperto.

18.2.05

[tendenze] Propensione alla semplicità

Il Paradosso della Semplicità
Normalmente si pensa che il risultato della realizzazione di un oggetto utile e ricco di funzionalità sia necessariamente qualcosa di estremamente complesso da utilizzare.
Realizzare qualcosa di più semplice significa spesso fare qualcosa di meno potente. Come realizzare, quindi, qualcosa di potente ma semplice da utilizzare?

Il complesso della complessità
Il nostro mondo è pieno, intriso oserei dire, di oggetti tanto utili quanto complessi da utilizzare: parlo di elettrodomestici, di manuali d'uso, di interfacce grafiche, di programmi.
Sebbene la complessitàdi un gadget o di un sito web faccia spesso la gioia del creatore o dei geek che non possono fare a meno di godere della ricchezza delle sue caratteristiche (o features) , molti di noi sono spesso infastiditi da una fotocamera digitale piena di tasti con loghi strani la cui funzione è difficile da ricordare o da un portale o da un blog che riporta un centinaio di sezioni in prima pagina, o da una procedura aziendale, omnicomprensiva ma assolutamente arzigogolata.
Il concetto di semplicità si fonda sull'assunto che l'intelligenza e la memoria umana sono costruite sì per essere omnicomprensive e multidisciplinari, ma non sono in grado di sostenere un livello di approfondimento elevato per tutti gli ambiti dell'esistenza umana. E' anche per questo motivo, ad esempio, che ci specializziamo in un numero limitato di settori.
Semplice non significa economico o monofunzione, ma bensì facile da utilizzare o da fruire. Ed elegante.
Non sono risultati che si ottengono semplicemente rimuovendo bottoni, sezioni da un sito o ridisegnando un logo: realizzare un oggetto semplice da utilizzare è più difficile, perchè richiede uno studio appropriato, approfondimenti e test, tanto test.
Significa trovare i modi per non farci sopraffare dalla complessità della tecnologia moderna e dalle frustrazioni del sovraccarico di informazioni, non tanto rifiutandole (sarebbe troppo semplice), quanto dominandole.

BLinks:



Adotta la semplicità

Se condividi questo approccio, puoi inserire sul tuo sito/blog il logo e il link a questa pagina

[sicurezza] VoIP? Sì, ma con cautela

Sono in molti a considerare il VoIP come una panacea al problema delle tariffe telefoniche: che si tratti dell'incarnazione più semplice, quella da PC a PC via un sistema come Skype, ICQ o Yahoo messenger, o di quella più complessa che va a sostituire una piattaforma telefonica tradizionale, non vi è dubbio alcuno che si tratti di un investimento che ha un punto di break even molto vicino.
Dal punto di vista della sicurezza, però, è opportuno considerare che si tratta sempre e comunque di un servizio che utilzza Internet, ovvero, la tecnologia è soggetta al medesimo tipo di problemi di ogni altro servizio Internet: Denial of Service, attacchi "man-in-the-middle", Malicious Calling, VBombing, VoIP Spam, Spoofing, Phishing, Fake Caller ID. E tutti, o quasi, fuori dal controllo del provider.
Non pensate che basti inserire l'infrastruttura VoIP all'interno della vostra rete protetta, utilizzando la stessa architettura di sicurezza: la voce su IP viaggia sì in pacchetti, ma le misure di sicurezza usuali, come firewall o crittografia, possono causare un'abbassamento della qualità della voce e bloccare le chiamate se non configurati con oculatezza.
Progettare e implementare una rete VoIP è un'attività peculiare che richiede una preparazione accurata.
Un ausilio alla problematica verrà dato dalla Voice over Internet Protocol (VoIP) Security Alliance, un'associazione di produttori, provider e ricercatori che lavorerà per scoprir e ridurre i rischi legati al VoIP.
Tra i partecipanti troviamo 3Com, Alcatel, Avaya, Codenomicon, Columbia University, Ernst and Young’s Guiliani Advanced Security Center, Insightix, NetCentrex, Qualys, SecureLogix, Siemens, Sourcefire, Southern Methodist University, Spirent, Symantec, the SANS Institute, Tenable Network Security, and TippingPoint.
Al contempo, è stato annunciato il primo firewall progettato appositamente per VoIP: SIPassure di BorderWare, un firewall di livello applicativo, che, tra le altre cose, permetterà di autenticare l'utente in collegamento e di configurare con semplicità le policy di security.

17.2.05

[tendenze] Offshoring: l'Europa dell'Est sfida l'Asia

Vi segnalo questo articolo di ComputerWorld Italia sulle tendenze nell'ambito dell'offshore outsourcing: l'Europa dell'Est è competitiva rispetto all'Asia (India e Cina) e, a mia opinione, è culturalmente più vicina alla realtà occidentale, fattore che rende i rapporti più agevoli.

16.2.05

[news] Articolo sulla Competitive Intelligence in myMarketing.net

Vi segnalo "Concorrenti senza più misteri", l'articolo del sottoscritto che appare sulla prima pagina del portale MyMarketing.net
L'obiettivo dell'articolo è di far luce sulla Competitive Intelligence come strumento di ausilio alle strategie aziendali, a chi si occupa di marketing e Business Development.

[sicurezza/controspionaggio industriale] LibriUtili: Google Hacking for Penetration Testers

L'Information leakage è la divulgazione, spesso non intenzionale, di informazioni sensibili al pubblico: il Web è una fonte primaria da cui attingere e da cui guardarsi, sovente utilizzata per reperire dati anche non troppo evidenti. E' infatti più comune rivolgere il proprio interesse verso le altre aziende (per spionaggio industriale o per semplice curiosità) piuttosto che verso la propria, lasciando spiragli aperti su dati che dovrebbero essere protetti.

I responsabili della sicurezza aziendale possono oggi utilizzare le tecniche e gli strumenti descritti nel libro di Johnny Long per valutare il grado di information leakage della propria organizzazione, testando e implementando eventuali rimedi.
La popolarità del Google hacking risiede nell'estrema limpidezza dei suoi risultati: trovare un file di configurazione, una mail box, chiavi di registro, file di database non è mai stato così facile.
Il libro dimostra vari modi per reperire una quantità smisurata di informazioni utilizzando semplici query, ma per fortuna omette di segnalare come reperire numeri di carte di credito (sebbene siano informazioni reperibili sul web).
Grazie a Google Hacking for Penetration Testers, un'amministratore della sicurezza potrà conoscere strumenti come Sensepost's Wikto, che automatizza lo scanning via Google, trovare implementazioni in Perl, Python, C#, and C.

Nota: Nel caso dobbiate far condurre del test di penetrazione da parte di aziende esterne, assicuratevi che offrano anche un servizio di assessment della vostra esposizione su Google.

Potete acquistare il libro con gorilla.it, anche se al momento non è ancora nel catalogo online, oppure su Amazon.


Google Hacking for Penetration Testers
Autore: Johnny Long
Editore: Syngress; 1 edition (December 1, 2004)
ISBN: 1931836361

15.2.05

[numeri] Fatti e statistiche dal mondo dell'ICT

Secondo la società di consulenza mi2g il costo del business intorno al malware, comprendendo virus, worms e cavalli di Troia, va da 169 a 204 miliardi di dollari. Fonte: vnunet.com

NTA Monitor afferma che il 90% delle VPN è aperta agli hackers a causa di falle di sicurezza.
Fonte:
ComputerWeekly.com

La scorsa settimana, Deutsche Bahn, la società ferroviaria tedesca, ha migrato 55.000 utenti di Lotus Notes su Linux. Si tratta della più grande migrazione verso l'open source.Fonte: Techworld.com

Secondo IDC, il mercato Linux, che sta avendo un incremento medio del 26 ogni anno, nel 2008 varrà 37.5 miliardi di dollari. Fonte:
Portland Business Journal

97: è il numero di bachi che l'azienda specializzata in testing Coverity ha trovato nel codice di MySQL, il DB opensource. La cifra è notevolmente inferiore alla media dei software commerciali con lo stesso numero di linee. Fonte:
ZDNet

[tendenze] IBM incoraggia 6000 ISV a portare i loro prodotti su Linux

Tra i programmi futuri di IBM c'è quello di incoraggiare 6000 ISV (Indipendent Software Vendor) a portare il loro software su Linux entro i prossimi 3 anni. Per supportare questo processo, Big Blue oggi presenterà al Linuxworld Conference & Expo di Boston l'iniziativa eServer Application Server Advantage (nome in codice CHiphopper) che ha lo scopo di facilitare la produzione di software per Linux sulla varie piattaforme IBM, e quindi anche sui sistemi pSeries, zSeries (mainframes), and iSeries.

Le software house avranno anche accesso ai centri test di IBM e finanziamenti per promuovere i loro prodotti.

IBM ha già 6000 applicazioni elencate nella Global Solutions Directory dei partner e crede che arriveranno a 12000 entro il 2007: queste speranze sono così rosee anche perchè supportate da successo che sta avendo Linux nel mondo degli utilizzatori tradizionali di IBM: nel 2004, il 40% dell'hardware Linux venduto era costituito da piattaforme non- basate su Intel.

14.2.05

[analisi] Il motore di ricerca diventerà inutile?

E' quanto cerca di dimostare il concorso Primosugoogle.it, in cui i partecipanti devono tentare di arrivare al primo posto dei risultati di Google per una determinata categoria.
La frase di ricerca era "velocipedi equestri" e la gara è stata vinta da Laura Battaglia che, con il sito Laurabattaglia.com/velocipedi_equestri.htm , si è saldamente mantenuta nelle primissime posizioni fin dalla sua comparsa tra i contendenti al titolo.
Per maggiori informazioni sul concorso vi rimando alla notizia su nomadvillage.

A mio parere questo concorso geniale ha una valenza molto ampia, sebbene altrettanto inconsapevole, ovvero dimostrare la facilità di manipolazione dei motori di ricerca: viene dimostrato come far arrivare al primo posto di una categoria un sito che non dice assolutamente nulla di quella categoria sia un'attività approcciabile con un po' di studio e applicazione.
Come riporta NomadVillage, il concorso è partito l'estate scorsa: "14 luglio 2004, digitando “velocipedi equestri” su Google si ottenevano 20 risultati, per lo più pagine di Comuni (ordinanze comunali nelle quali comparivano entrambe le parole, ovviamente non nell’ordine dato dal concorso), e siti di maneggi o addetti del settore.
A fine settembre, invece, digitando “velocipedi equestri” su Google si ottenevano già circa 44mila risultati, fino ad arrivare ai circa 170.000 attuali."
Quindi al momento attuale di pagine inutili sui "velocipedi equestri" ce ne sono solo 170.000 - 20 = 169.980.

Dal momento che però la tecnica è utilizzata nel mondo reale (del lavoro e non solo) per fare in modo che un certo sito appaia nelle prime posizioni dei motori di ricerca, facendo marketing senza pubblicità (per citare l'omonimo libro di Michael Philips) viene ancora una volta dimostrata la fallacità dei motori come risposta alla necessità di reperimento delle informazioni.
Questo se consideriamo query di bassa complessità, con 2 o al massio 3 keyword. Se invece la query diventa più complessa, unita alla capacità dell'utente di raffinare la ricerca imparando dai risultati ottenuti, diventa più difficile ottenere dei risultati spazzatura o dei link non utili.
Di concerto, anche per chi cerca di far leva sull'ottimizzazione del posizionamento, sarà sempre più difficile trovare un modo per far fronte alla sempre più diffusa specializzazione delle richieste.
Quello che, quindi, questo concorso vuole suggerire è di imparare a ricercare, attraverso il raffinamento delle ricerche e l'analisi dei risultati.
Quando, tra non molto tempo, le tecniche di ottimizzazione saranno diffuse a un pubblico grande due ordini di grandezza rispetto all'attuale (e non ci vorrà molto tempo), sarà giocoforza aver acquisito delle competenze più approfondite per la ricerca che, unite ai nuovi modi di presentare i risultati, aiuteranno a discriminare tra informazioni utili e inutili.

Segui la discussione sul newsgroup it.economia.e-commerce

[tendenze] Tagging, folksonomies, Semantic Web

Un modo sempre più diffuso per la creazione e il mantenimento delle cosiddette reti sociali - o social network - è il tagging, ovvero la volontà dei partecipanti di qualificare la conoscenza attraverso delle etichette, per condividere i propri interessi, il proprio campo di lavoro, etc, allo scopo di poter trovare contatti con chi li condivide o ci può dare una mano.
Io posso quindi iscrivermi a un sito come 43things e descrivermi, illustrando quella parte di me che voglio rendere pubblica e che desidero arricchire attraverso lo scambio con altre persone.
Quello che 43 Things fa per gli obiettivi personali, del.icio.us lo fa per gli interessi generali dei suoi utenti, attraverso la condivisione dei bookmarkOppure posso rendere pubblici i miei bookmark su del.icio.us e vedere quelli degli altri:
Su 43Things possiamo trovare gente che vuole diventare giornalista freelance e correttore di bozze, andare a un concerto, imparare il giapponese, tagliarsi i capelli, eliminare il fumo nei locali dello stato di Washington, finire la tesi, avere una tana sotterranea.
Condividere gli stessi obiettivi e interessi non è come cercare l'anima gemella o trovare amici: non si instaura un rapporto durevole con altre persone, ma si colleziona conoscenza attraverso i rapporti che moltiplicano l'abilità di trovare materiale interessante e utile.
Si tratta forse di un nuovo modo di organizzare l'informazione? Certamente, e probabilmente, dal momento che l'informazione è presente perchè è stata sottoposta a un processo di valutazione da parte di chi l'ha inserita, può costituire un archivio molto più efficiente di un motore di ricerca: i risultati di questi ultimi sono spesso discontinui e disarticolati, mentre l'informazione che proviene da un sito di tagging è stata già utilizzata da qualcun'altro e quindi è testata e (probabilmente) più funzionale e ha più senso per i nostri fini.

Fino ad ora di passi verso la realizzazione del web semantico ne sono stati fatti molti, soprattutto dal punto di vista degli standard: i puristi del web semantico storcono un po' il naso di fronte a questi nuovi servizi, sebbene essi entrino abbastanza bene nella definizione: "Il web semantico è un'estensione del web attuale in cui all'informazioni è assegnato un significato ben definito, permettendo a computer e persone di lavorare meglio in cooperazione" (Tim Berners-Lee, James Hendler, Ora Lassila, The Semantic Web, Scientific American, Maggio 2001).
I metadati, i dati associati alle informazioni, permettono a sistemi e persone di trovare e collegare le informazioni. La creazione dei metadati è passata dall'approccio dei professionisti (catalogatori e biblioteconomisti), a quello degli autori (capitanato da SGML, WWW e Dublin Core). Entrambi gli approcci hanno dei punti di forza e di debolezza: il più problematico è la scalabilità. Come fare a far fronte all'inarrestabile crescita della quantità di documenti?
L'ultimo approccio nella creazione delle tassonomia è quello delle folksonomies (plurale di folksonomy), ovvero metadati generati dagli utilizzatori e condivisi in una comunità: in pratica il modo per far lavorare i metadati in ambienti distribuiti (o anche "metadata for dummies")
E anche se la disciplina dell'Information Architecture sta storcendo il naso, anche se le folksonomies non sono meglio del vocabolario, sono sicuramente meglio che niente: portano il concetto di metadato all'uomo qualunque. Il mio modo di classificare un oggetto o un'informazione può essere differente da quello di molti altri, ma al contempo può anche essere lo stesso che utilizzano molti altri.
Pertanto, nell'ecologia delle tassonomie, è auspicabile una forma di folksonomies controllate, per evitare che lo stesso documento appartenga a 10 folksonomy con nomi differenti ma che indicano lo stesso concetto.
Forse è un po' una stortura del concetto di folksonomy, quello di essere controllata, ma una volta che è stata condivisa cosa possiamo fare? Le possiamo considerare parte dell'universo dei metadati e auspicare una simbiosi attraverso il contributo di catalogatori umani o automatici, che attraverso la linguistica computazionale e l'elaborazione del linguaggio naturale, aggiornino i vocabolari controllati per farli evlvere e renderli più utili nell'attività di ricerca.

BLinks:

12.2.05

[analisi fallaci] Il costo dello SPAM (revisited)

Leggo un articolo del Washington Post affermante che i lavoratori statunitensi perdono 2.8 minuti al giorno per cancellare i 18.5 messaggi SPAM che ricevono. Questo costa alle aziende in media 22 miliardi di dollari all'anno.

Ma perché perdono così tanto tempo? Io non impiego molto a capire che un messaggio è spam, ma il 14% degli intervistati legge il contenuto dei messaggi e il 4% ne trae suggerimenti per gli acquisti (ribadisco: lo spam FUNZIONA!!)

Ma, alla fine dei conti, chi è che perde tempo? Le aziende? Non sempre. Pensateci bene. Se non si tratta di aziende in cui i lavoratori sono così motivati e impegnati da piazzarsi davanti al timbro del cartellino qualche minuto prima, quei 2.8 minuti di media li perde il dipendente che si ferma al lavoro 2.8 minuti di media in più. Non capita anche a voi?

[sicurezza] Anche gli antivirus sono vulnerabili

State lavorando al vostro PC Windoze e, come al solito, non avete salvato il lavoro delle ultime 5 ore quando, all'improvviso, lo schermo diventa blu e appare il volto satanico di Bill Gates con tanto di cornetti e di tridente che vi dice:"Caro il mio bel pollo, il tuo disco sarà formattato tra 5 secondi...4...2...2...1..."
Ma come, dite voi, ho appena aggiornato l'antivirus.
Certamente, ma se il tuo antivirus fosse bacato?
E non sto parlando di antivirus comprati in ferramenta, parlo di Symantec e F-secure: questa settimana entrambe hanno rilasciato patch che rimediavano a falle serie nei loro prodotti antivirali.
La patch di F-secure riguarda una libreria utilizzata da 18 dei suoi prodotti per desktop, server e gateway ed è stata scoperta da Internet Security Systems: il buco poteva essere utilizzato creando un file ARJ speciale che avrebbe sfruttato un buffer overflow, permettendo l'accesso al sistema.
ISS ha anche scoperto la falla di Symantec che riguardava il software di individuazione dei virus che poteva causare l'esecuzione del virus anzichè la sua identificazione.

Raro esempio di risposta alla domanda "Chi controlla il controllore?"

10.2.05

[tendenze] Chaos management

Vi consiglio una lettura dell'articolo di Umberto Santucci sul Chaos management, che tratta di come gestire le turbolenze, le complessità, i team, con il minimo sforzo e il massimo rendimento: dalle teorie del caos alla gestione flessibile dell'organizzazione che apprende, citando anche il contributo che l'informatica ha portato allo sviluppo delle metodologie.

[tendenze] Yahoo Local è più local degli altri


Yahoo Local

8.2.05

[analisi] Un digital divide tra CEO e CIO

Pensateci: esiste un vero divario digitale tra gli IT manager e i loro superiori. Lo so, lo dite anche voi da almeno 20 anni, e nonostante tutto, non è cambiato nulla.
Leggete i risultati di un sondaggio della Intelligence Unit del noto periodico Economist: in buona sostanza più del 60% dei CEO inglesi afferma che la tecnologia della propria azienda non va incontro alle sue aspetattive.
Gli fanno da contrappunto gli IT manager secondo cui il top management non è in grando di comprende abbastanza la tecnologia o di fornire un supporto adeguato ai progetti IT.
In ultimo, quando viene chiesto agli amministratori aziendali su che basi vengono valutate le performance del dipartimento IT, il 76% si focalizza sulla riduzione dei costi operativi, e in seconda istanza su come l'IT migliora la qualità del servizio ai clienti.

Ebbene, il fattore T, ovvero la tecnologia e le sue derivazioni, riesce ancora raramente a coniugarsi col fattore M, ovvero il management aziendale, per creare il felice connubio T&M, sorta di elemento trasversale che fa parte del patrimonio di conoscenze di IT managers e Amministratori Delegati.
Nelle aziende si lavora a compartimenti molto stagni e spesso si viene a creare una sorta di rivalità tra uffici di competenze diverse, un atteggiamento che diventa particolarmente evidente quando si deve scaricare il barile per qualche problema. Per questo ogni ufficio si occupa del suo lavoro e solo del suo, e lo fa con una specie di gelosia del proprio patrimonio di conoscenze: intromissioni da parte di altri uffici sono considerate con sprezzante intemperanza.
Gli IT manager hanno una loro visione aziendale, differente da quella del CEO, per ovvie ragioni derivanti dalle rispettive competenze e dall'esperienza professionale e formativa. Ma non sono i soli: ogni impiegato in un'azienda, dal CEO all'uomo delle pulizie, ha una visione personale dell'azienda.
La visione olistica dell'azienda non è propria di nessuno, men che meno del CEO e del suo entourage, e non lo può nemmeno essere. Si può arrivare però a un buon grado di approssimazione: ciò che gioverebbe è l'uso di uno stesso protocollo di comunicazione, soprattutto con unità aziendali innovative, come l'IT ad esempio, ambienti verso i quali permane una certa diffidenza dovuta a ignoranza della materia (ogni aspetto che sto illustrando ha naturalmente il suo reciproco). A questo obiettivo si può arrivare solo condividendo le proprie differenti posizioni e la volontà di comunicare e comprendere le relative istanze.
Sto parlando più come un responsabile delle persone (o dell'ufficio personale - non delle risorse umane, perchè aborro pensare all'uomo come a una risorsa a cui attingere), o meglio come vorrei che parlasse un manager che ricopre quella mansione: fino ad ora non ne ho incontrato nessuno che proponesse corsi di management aziendale agli IT manager e di informatica al proprio Amministratore Delegato.

5.2.05

[tendenze] Buon compleanno, XML 1.0

<intro>Si festeggia in questi giorni il settimo compleanno della specifica 1.0 di XML, uno standard molto diffuso, ma solo negli ambienti tecnologici. </intro>

Un sondaggio condotto il mese scorso dalla Vanson Bourne in Gran Bretagna tra un numero cospicuo di manager IT ha evidenziato che il 59% di essi fa uso dell'XML e il 71% utilizza i Web services.
E' assolutamente positivo il trend di crescita delle implementazioni basate sull'XML: le aziende hanno compreso che esistono standard maturi, stabili e aperti su cui costrurie infrastrutture IT innovative che permettono di introdurre nuovi modelli di business e livelli di interoperabilità impensabili fino a pochi ani fa.
Le aziende in cui è stato condotto il sondaggio sono per il 47% con più di 1000 dipendenti, per il 18% hanno tra 500 e 1000 dipendenti, il 20% tra 250 e 500 e il 14% tra 100 e 250.
Purtroppo molti non-tecnici mostrano ancora ignoranza, confusione o semplice apatia circa il valore e i benefici dell'XML e delle tecnologie derivate: il 91% degli intervistati parla di ignoranza del management sull'argomento.
E a proposito dei Web services? Solo il 37% degli intervistati ha sentito parlare di SOA, o Service Oriented Architecture e l'11% afferma di utilizzare l'XML ovunque sia possibile, essendo diventato il metodo di descrizione dei dati scelto dall'azienda.
Tra i benefici del Web Services più citati abbiamo il miglioramento della produttività (38%), l'interoperabilità (36%), la riduzione dei costi (18%) e un migliore ROI sull'asset essitente (6%).

4.2.05

[sicurezza] Internet (non) subirà un attacco devastante entro i prossimi 10 anni

Non vi dite che non ve lo avevano detto: entro i prossimi 10 anni si verificherà un attacco devastante a Internet. O alla rete elettrica.
E' quanto hanno affermato ben 1300 esperti e ricercatori di tecnologia a un sondaggio della Princeton Survey Research Associates International su un campione selezionato d aun precedente sodaggio condotto dalla Pew Internet & American Life e dalla Elon University.






Ma vediamo di analizzare gli elementi del sondaggio:


  • il campione comprende "esperti" USA e esteri che hanno dichiarato di avere una conoscenza approfondita di Internet;
  • metà di essi ci lavorano da prima del 1993 (io per la precisione ci arrivai nel 1990);
  • un terzo provengono da ambienti accademici, un terzo da aziende tecnologiche o di consulenza e un terzo lavorano per organizzazioni non profit, per l'editoria o il governo.
  • il 66% è convinto che si verificherà un attacco devastante a Internet o alla rete di distribuzione energetica del paese.
  • il 18% non ne è affatto convinto
  • il 16% non ha risposto

A mio parere l'affermazione è piuttosto priva di significato, e mi meraviglia che possa derivare dal parere di esperti: parlare di "un attacco a Internet" è come parlare di "un attacco alla Terra", "un attacco al sistema economico mondiale", a un sistema capillarmente distribuito e decentralizzato, quindi non dipendente da un unico o da pochi punto di governo.

Siamo abituati agli attacchi provenienti da virus, worm, Denial of Service, spam, phishing, etcetera, e anche colpendo dei nodi nevralgici dell'infrastruttura Internet mondiale, grazie al diverso instradamento (routing) si avrebbe comunque una garanzia di continuità del flusso di informazioni.

Per quanto riguarda i virus, si parla incidenti che hanno provocato danni cospicui a diverse aziende e istituzioni, ma nell'economia globale dell'Internet e del pianeta si tratta di cifre assolutamente irrisorie.

Ma qual è il componente della rete che fino ad ora più si è dimostrato più debole agli attacchi? Un PC con Windows (any release).

Volete allora uno scenario (in)verosimile? Se si colpisserocontemporaneamente (e fisicamente) tutti i produttori di antivirus immediatamente prima di lanciare un virus in grado di sfruttare unbaco appena identificato di Windows che cancelli i dati sul discolocale si creerebbe un bel panico. E non solo.

Fortunatamente l'economia mondiale non è basata su Windows, ma indubbiamente i problemi sarebbero imbarazzanti. Altro che MilleniumBug.

La rete elettrica è un'altra cosa: si sono verificati già dei blackout negli Stati Uniti, che hanno colpito in una fase la California, e in un altro momento gli stati del Nord-Est. Sebbene sia stata irrobustita da diversi interventi infrastrutturali e organizzativi, ha dei punti deboli che l'infrastruttura Internet non ha e un blocco continuativo sarebbe certamente deleterio.

Ma qual è la ragione di accomunare Internet e la rete elettrica, due entità che hanno struttura e finalità completamente differenti?

Conclusione: queste statistiche hanno l'unico scopo di creare hype intorno alle problematiche di sicurezza, un po' come qualche anno fa venne fatto intorno al Millenium Bug, la più grande bufala informatica mai messa in pratica che ha fatto la fortuna di "esperti" e società diconsulenza. Sebbene però la sicurezza sia fondamentale, queste statistiche poco credibili purtroppo ne sminuiscono l'insopprimibile necessità, aumentando il tasso di ignoranza anziché circostanziarne gli obiettivi.


2.2.05

[sicurezza] Il Viminale avrà accesso al codice Microsoft

Il ministero dell'Interno e Microsoft hanno siglato un accordo che permette al Viminale, attraverso il Government Security Program (GSP), di accedere al codice sorgente dei sistemi operativi di Windows e alle informazioni tecniche per la sicurezza dell'infrastruttura informatica che e' oggi la priorita' numero uno per i governi e le organizzazioni internazionali.

Il Government Security Program, avviato da Microsoft nel gennaio del 2003 dopo i primi segnali dell'interessamento di governi e istituzioni verso Linux, è un programma gratuito a cui partecipano attualmente 60 paesi, ideato per supportare governi e organizzazioni internazionali nella lotta contro le minacce di sicurezza dei propri sistemi informativi.
Inizialmente rilasciato per il sistema operativo, il programma è stato ampliato nel 2004 per comprendere anche il codice sorgente e le informazioni tecniche di Microsoft Office.

Clausola: l'accordo prevede che il 97% del codice sia disponibile presso i governi che ne fanno richiesta, mentre il 3% dovrà essere esaminato direttamente a Redmond.
Pisanu, cosa aspetta? C'è un aereo per Seattle alle 12:05