31.12.04

[e-commerce] Tecniche di spam nei motori di ricerca (2^ puntata)

I motori di ricerca filtrano il contenuto dei siti in due fasi: durante il collezionamento e nella fase di post-processing. Il processo di filtraggio è evolutivo, quindi perfettibile e in continua evoluzione, un’evoluzione parallela a quella dei metodi di spam: l'approccio dei gestori dei motori di ricerca è molto simile a quello che utilizzano i produttori di antivirus, sebbene la minaccia e l'urgenza siano estreamente differenti.
Continuiamo, in questa seconda puntata, la panoramica tra le tecniche di SES: la prima puntata si trova a questo indirizzo.


Grandi case editrici
Ho letto la storia di una grande casa editrice che ha costruito una grande quantità di siti linkati tra loro, generando così un alto PageRank: questa forma di spam è difficile da determinare poiché i link sono assolutamente legittimi.
Una volta che gli spammer hanno guadagnato PageRank e link reputation all’interno del loro network possono utilizzare l’inventiva per arrivare ai primi posti nelle ricerche con combinazione di keyword.

Forums e guestbook
Spesso ho visto utilizzare i forum con l’unico scopo di inserire un commento contenente un link a un sito. Questo è accettabile solo se il contenuto del messaggio è contestuale all’argomento del forum.
Discorso diverso si applica ai guestbook, che non sono monitorati allo stesso livelo dei forum, e in cui è più semplice inserire un saluto seguito da un link.
Naturalmente (e per fortuna) non tutti i forum e i guestbook vengono inclusi nel database dei motori di ricerca, ma è piuttoto semplice scoprire quelli che lo sono.

Domain Spam
In questo caso si tratta di siti che risiedono all’interno dello steso dominio di un
sito a cui incrementare il ranking (il classico http://www.nomesito.com/) e contengono pagine con link che puntano al sito principale.

Link all’interno del tag <noscript>
Normalmente il tag <noscript> sostituisce le informazioni e i link che un codice Javascript fornisce a un browser e viene utilizzato dagli spider e dai browser non configurati per interpretare il JS: il contenuto del blocco all’interno del <noscript> non è visibile nella pagina visualizzata dal browser.
Nei casi fraudolenti, i link puntano ad altri siti per incrementarne il PageRank; eccone un esempio:

<SCRIPT LANGUAGE="javascript" SRC="http://www.spamsite.com/cc.asp?idn=aiiksjj&NoLink=1" TYPE="text/javascript"></SCRIPT>

<NOSCRIPT><a href="http://www. spamsite.com">real estate</a>
<a href="http://www. spamsite.com/popkeys.asp?Key= doric+columns"> doric columns </a>
<a href="http://www.spamsite.com/popkeys.asp?Key=aluminium">aluminium</a>
<a href="http://www.spamsite.com/popkeys.asp?Key=great+designers"> great designers </a>
<a href="http://www. spamsite2.net/">home decorating</a>
<a href="http://www. spamsite3.biz/">home improvement world</a>
<a href="http://www. spamsite4.com">luxury homes</a>
</NOSCRIPT>

Segni dei tempi


Statua presso la Sony-Ericsson a Shangai

30.12.04

[tecnica] Suggerimenti per rendere FireFox più veloce

Sul blog forevergeek ho trovato alcune interessanti indicazioni per velocizzare FireFox: eccovele.

1. digitate "about:config" nella barra degli indirizzi e cercate le seguenti voci:
network.http.pipelining network.http.proxy.pipelining network.http.pipelining.maxrequests
Normalmente il browser esegue una richiesta a una pagina web alla volta. ABilitando il popelining ne potrà fare diverse contemporaneamente

2. basta cliccare due volte sulla voce desiderata per configurarla:
"network.http.pipelining" --> "true"
"network.http.proxy.pipelining" --> "true"
"network.http.pipelining.maxrequests" configurare questa voce a 30. E' il numero massimo delle richieste. Se avete problemi di eccessivo uso delle risorse del PC, provate un numero più basso.

3. cliccate col tasto destro in un qualsiasi punto della pagina: si aprirà un menù da cui dovrete selezionare "Nuovo" e poi "Intero" ("New" e "Integer" per chi ha l'edizione inglese"). Inserite "nglayout.initialpaint.delay" e settate il valore a "0". Questo valore è la quantità di tempo che il browser aspetta prima di agire quando riceve un'informazione.

Buona navigazione!

Raccolta fondi per il disastro in Asia

A questo link troverete un elenco di raccolte fondi

Intervista ai creatori di Google

Ieri sera Larry Page e Sergey Brin, i creatori di Google, sono stati intervistati dalla ABC. Potete vedere la registrazione del video qui.

29.12.04

[sicurezza] Una toolbar anti-phishing

Netcraft ha appena rilasciato una toolbar per Internet Explorer in grado di fornire informazioni dettagliate sul sito che state visitando; disponendo anche di un database contenente informazioni su milioni di siti (tra cui la locazione geografica, la longevità del sito e la sua popolarità).
La toolbar permette anche di segnalare un sito phisher permettendo l'aggiornamento del database.

Riporto dal sito di Netcraft

Toolbar features include:
* Clear display of sites' hosting location at all times helps you validate fraudulent urls (e.g. the main online banking site of a large US bank is unlikely to be hosted in the former Soviet Union).
* Once you report a phishing URL, it is blocked for other community members subsequently accessing it. The leverage of widely disseminated attacks (people constructing phishing attacks send literally millions of electronic mails in the expectation that some will reach customers of the bank) is utilized to expedite blocking of the fraud site.
* Natively traps cross site scripting and other suspicious urls containing characters which have no common purpose other than to deceive.
* Netcraft supervisor validation is used to contain the impact of any false reporting of urls.
* Display of browser navigational controls (toolbar & address bar) in all windows, to defend against pop up windows which attempt to hide the navigational controls to disguise location.
* Happily coexists with Google and other Toolbars.


Alla fine avremo più toolbar che spazio per leggere le informazioni, ma è auspicabile che i browser implementino queste feature al loro interno, politica, peraltro, che sembra essere perseguita più da Firefox che da IE.

[e-commerce] Tecniche di spam nei motori di ricerca (1^ puntata)

E' ormai consolidato che un buon posizionamento nei motori di ricerca consenta una maggior visibilità ai siti; essi sono stati progettati per scopi informativi, ma sono gli strumenti più utilizzati dalla comunità Internet e, quindi, anche le vetrine più ambite.
Il posizionamento nei search engine è diventato un compito estremamente competitivo e i gestori di siti web sono continuamente sotto costante pressione per cercare di guadagnare visibilità.
Molte aziende sfruttano i motori per attirare gli utenti alla ricerca di informazioni per vendergli qualcosa, sovvertendo lo scopo primario del servizio di ricerca: spesso le tattiche utilizzate per raggiungere i primi posti della classifica oltrepassano anche un limite etico.
Ogni motore di ricerca ha i suoi algoritmi di composizione delle classifiche dei risultati e il posizionamento è diventato una vera e propria tecnica tanto da far nascere aziende che si occupano anche di sviluppare sistemi o software per dar maggior risalto ai siti: per molte di queste aziende la qualità non è un problema, ma ciò che importa è promettere di battere la concorrenza.
E per fare questo viene sfrutatta una lunga lista di tecniche di spam.
Come a dire, "fatta la legge, trovato l'inganno": il ranking delle ricerche è adulterato da siti spazzatura che poco hanno a che fare con l'argomento della ricerca o hanno un contenuto insoddisfacente.
Tutto questo risulta in una perdita di tempo e in un'insoddisfazione da parte dell'utente che è costretto a scorrere pagine e pagine o a raffinare la ricerca (aspetto, peraltro, positivo, perchè stimola i nostri pigri neuroni, troppo abituati a fruire passivamente).
Prendo quindi spunto da una discussione su mlist.it e da un articolo apparso su i-dome.it per illustrare un po' di tattiche non etiche, ma neanche illegali, utilizzate da alcuni esperti per meglio posizionare i siti.
Il miglior modo per dissuaderne dall'utilizzo è di portarle alla luce: quando tutti le conosceranno, cesseranno di funzionare. Il cammino è lungo e arduo, ma qualcuno dovrà pure iniziare.

La responsabilità è del cliente
Ecco lo scenario tipico che sta alla base di ogni progetto di SES: i motori di ricerca danno valore ai siti popolari e ricchi di contenuti, ma molte aziende non desiderano impiegare tempo e risorse per creare contenuto e popolarità intorno al proprio.
L'azienda può essere a conoscenza o meno dell'approccio che verrà utilizzato internamente o dalla società di SEO, ed in ogni caso è sua responsabilità informarsi per poi decidere se procedere o no. Il rischio che si corre è di finire nella lista dei siti banditi dai motori di ricerca e di aver buttato nella spazzatura un po' di denaro, per non contare il danno all'immagine una volta che la notizia viene divulgata.

Come comunicare gli spam
Basta cliccare su uno di questi link:
Per comunicare uno spam a Google
Per comunicare uno spam a Yahoo!


Un filtro per lo SPAM di Google
Sembra che Google non sia così veloce nel verificare e bandire i siti che portano spam.
Esiste però un progetto pilota che utilizza Google e ne filtra i risultati: www.ideamaker.it/Mygoogle
Gli scarti sono quelli segnalati in unadatabase come SPAM e come dubbi (i cui URL rispondono a certi semplici criteri).

Tecniche
Cominciamo ad esaminare le tecniche utilizzate dagli spammer, iniziando dalle più semplici:

1. Il testo invisibile
Come impregnare la pagina di parole chiave senza impattarne la fruizione? Spargendo qua e là del testo dello stesso colore dello sfondo. Questa è una delle tecniche più antiche ma che ancora, a volte, da i suoi frutti.
Nell'esempio qui sotto, la pagina utilizza come sfondo per una cella di una tabella una immagine gif molto piccola di colore nero, lo stesso colore del testo che verrà scritto nella cella.



<table width="83" border="0" bgcolor="#FFFFFF">
<tr>
<td >background="nero.gif"> TESTO INVISIBILE
< /td>
</tr>
< /table>


Una raffinatezza consiste nell'utilizzo di layer DHTML che possono coprire la scritta già nascosta oppure contenere del testo, ma essere posizionati fuori dallo schermo così da essere resi assolutamente invisibili.
Ad esempio:




Testo testo e ancora testo
<div id="Layer1" style="BORDER-RIGHT: #000000 1px; BORDER-TOP: #000000 1px; Z-INDEX: 1; LEFT: -200px; BACKGROUND-IMAGE: url(nero.gif); BORDER-LEFT: #000000 1px; WIDTH: 200px; BORDER-BOTTOM: #000000 1px; POSITION: absolute; TOP: -100px; HEIGHT: 115px; layer-background-image: url(nero.gif)">
<h1>SPAM SPAM SPAM SPAM</h1>
</div>


Il posizionamento assoluto nella tag div è definito dai termini left e top. Se negativi, sono accettati dai browser e creano un layer al di fuori dello schermo.

Continua alla 2^ parte

28.12.04

[tendenze] Offshore outsourcing e automazione dei processi minacciano lo staff IT

Nel corso del mese di dicembre Gartner ha pubblicato uno studio in cui si afferma che l'outsourcing offshore, cioè riguardante attività svolte all'estero, sta avendo un crescente impatto sulle occupazioni dell'IT in Europa Occidentale e in America.
Altri fattori che influenzeranno questo andamento saranno l'automazione di servizi di infrastruttura IT e processi di business, come ad esempio l'utilizzo dei sistemi IBM on-demand e HP utility computing.
Gartner prevede che l'impatto sarà sentito soprattutto dalle organizzazioni IT interne, ma anche i fornitori di servizio soffriranno di un calo delle attività e quindi del personale.
L'utilizzo di infrastrutture ad alta automazione riduce significativamente la necessità di procedure manuali e di coinvolgimento diretto della forza lavoro; significa anche maggiore flessibilità ed efficientamento dei costi, ma, al contempo, maggiore difficoltà per il personale IT di difendere la propria occupazione.
Dove emerge un rischio, però, si manifesta anche un'opportunità: quetso movimento richiede che lo staff IT aumenti i propri skill per salire nella catena del valore ed evitare così riposizionamenti forzati.

Outsourcing dei servizi
Già da alcun anni le aziende preferiscono accedere alle infrastrutture tecnologiche più per utilizzarle che per possederle: il veloce progresso tecnologico ha introdotto una altrettanto veloce svalutazione della tecnologia che, nel giro di pochi anni, si trasforma in un asset di valore nullo ma dall'alta spesa di mantenimento.
La tendenza delle aziende è di abbandonare grandi quantità di infrastrutture software custom per abbracciare la flessibilità di moduli standardizzati: il leasing, pratica diffusa per le piattaforme hardware, sta iniziando ad affacciarsi anche nel mondo delle applicazioni.
Per quanto riguarda l'outsourcing, nel mondo bancario italiano, ad esempio, sono molte le realtà che erogano servizi di Enterprise Service Provider alle istituzioni finanziarie: CEDACRI, T-system, IBM, SEC Servizi, sono solo alcuni esempi di aziende attive e in crescita.
Il futuro prevede una maggior modularità e flessibilità dei servizi IT: l'hardware auto-riparante e pricing adattabile permetteranno alle aziende di appogiarsi sempre meno alle risorse interne.

Outsourcing dello sviluppo
Lo sviluppo software ha trovato nuove possibilità in paesi emergenti in cui stipendi e costo del lavoro sono molto più ridotti che in occidente e in cui la qualità è assicurata da una struttura dell'educazione in grado di sfornare ottimi tecnici. E' certo che questo tipo di approccio sia accompagnato da problematiche che richiedono nuovi modelli di gestione del business, anche basati sul fattore culturale, ma si tratta comunque di metodi che sono stati collaudati con successo negli Stati Uniti, ad esempio, e che anche qui in Italia, da poco tempo, si stanno diffondendo: ho lavorato con azienda ad esempio che hanno delegato in India e in Romania lo sviluppo di alcune componenti di applicazioni complesse, non per il momento di un'applicazione completa, ma di parti che poi sarebbero state assemblate dall'azienda.
Gli Stati Uniti sono stati i pionieri di questo mercato spostando parte dello sviluppo applicativo in paesi come India, Cina, Russia, Europa dell'Este e Filippine. L'India è la nazione che vanta la più lunga tradizione di esportazione di software: gli introiti derivanti da questa attività sono paragonabili a quelli di nazioni come Irlanda e Israele, ma la differenza sostanziale nei costi, notevolmente più bassi nei paesi emergenti, dimostra l'altissimo numero di progetti in cui è coinvolto il paese asiatico.

[analisi] XBRL, l'XML per le informazioni finanziarie

<prologo>
Le informazioni per il business risiedono in reti ampie e integrate: provenienti da transazioni interne a un'organizzazione, le informazioni fluiscono in rapporti per la direzione, sistemi analitici, bilanci e rapporti esterni, dichiarazioni dei redditi e informazioni pubblicate dalla stampa o sui siti aziendali.
L'inoltro delle informazioni finanziarie dalle società ai mercati e agli enti regolatori è caratterizzato da inefficienze causate dalla mancanza di standardizzazione e dalla lentezza dell'elaborazione.
Il mercato attuale richiede alle società di migliorare l'efficienza dei sistemi di reporting, dell'accuratezza dei dati, di dare trasparenza e di rendere i dati auditabili, anche per recuperare la fiducia del pubblico e della comunità degli investitori minata profondamente dai disastri economici degli ultimi anni. Non ultime, le richieste di adeguatezza alle norme dell'accordo denominato Basilea II, richiedono alle banche e alle aziende che verranno classificate di migliorare i criteri di trattamento e divulgazione delle informazioni.
</prologo>

< xbrl >

<utilità>
L'eXtensible Business Reporting Language (XBRL) si può definire come un sistema di reporting che implementa la filosofia tipica delle tassonomie basate su XML che stanno cambiando il mondo della comunicazione nelle industrie verticali.
L'XBRL è uno standard aperto, ora giunto alla versione 2.1, per la preparazione, la pubblicazione, lo scambio e l'analisi di informazioni di business; i web services XBRL automatizzano i processi di collezionamento, validazione e utilizzo dei dati, trasformando dati statici, immagazzinati in sistemi eterogenei e distribuiti, in informazioni dinamiche ed estensibili.
Anzichè considerare le informazioni finanziarie come un unico blocco di testo, l'XBRL assegna un'etichetta identificativa, o tag, a ogni dato, permettendone la gestione ad applicazioni software e riducendo il costo dei processi di immissione manuale dei dati e la possibilità di errore, nonché aumentando la velocità del trattamento dei dati e permettendo il controllo automatico delle informazioni.
</utilità>

<consortium>
Oltre 200 organizzazioni partecipano al consorzio: enti standardizzatori e normatori, aziende di tecnologia e di consulenza, come l' AICPA, l'International Accounting Standards Board (IAS), the la US FDIC, la UK Inland Revenue, UK Financial Services Authority (FSA), PricewaterhouseCoopers LLP, KPMG, Ernst and Young, Deloitte Touché, Unisys, Microsoft, IBM, Oracle, Software AG, Morgan Stanley, Sumitomo-Mitsui Banking Corp., NEC, Deutsche Bank, Bank of America, Hitachi, Fujitsu, Moody’s KV, Reuters, Korean Stock Exchange (KOSDAQ), Tokyo Stock Exchange, Dutch Tax Authority, German Bundesbank, Banco de Espana, EUROSTAT, Danish Commerce and Companies Agency.
A conferma della fiducia e dell'impegno nell'adozione di questo standard, la Commissione Europea lo scorso giugno ha siglato un accordo da 1 milione di € con il consorzio "XBRL in Europe" per accelerare lo sviluppo e l'adozione dell'XBRL nel vecchio continente

Per approfondimenti vi invito a visitare il sito del Consorzio XBRL.
</consortium>
</xbrl>

<nota>
L'XBRL è uno standard del mondo finanziario i cui scopi sono differenti da quelli di altri standard del medesimo contesto, come il FixML, l'MDML, il RIXML, il Finxml etc.
</nota>


27.12.04

[previsioni] La guerra fredda dei motori di ricerca 1.0

Il 2005 sarà un anno di forte competizione, non solo nel mondo dei browser con la riproposizione Browser War tra Microsoft e Mozilla, ma anche perchè Google dovrà contrastare l'offensiva della società di Bill Gates e dei concorrenti che propongono nuovi approcci alla ricerca

Il 2004 è stato un anno in cui Google ha visto affermare in maniera sempre più crescente la sua posizione dominante all'interno del mondo dei motori di ricerca: avversari come Yahoo e MSN per il momento detengono ancora una grossa fetta del mercato, ma il loro motore di ricerca brilla più per la luce riflessa proveniente dagli altri servizi dei rispettivi portali.
Inoltre, il lancio della nuova piattaforma di ricerca di Microsoft non è stato dei migliori: il concetto di beta della casa di Redmond è quello vero e proprio del mondo dell'ingegneria del software (ovvero, una fase in cui il prodotto non è molto stabile), mentre la beta di Google è quasi una manovra di marketing cha fa affidamento su un prodotto quasi perfetto.

Google in questi ultimi mesi ha lanciato molte iniziative: la localizzazione, Gmail, google scholar, nuovi accordi con librerie universitarie, desktop search, enterprise search, etc, come se avesse compreso come il momento sia critico e sia necessario contrastare i segnali di minaccia con il lancio di nuovi strumenti e servizi che bombardino l'audience e ne consolidino il brand.
Negli ultimi mesi dell'anno, infatti, non passava settimana che nelle news non apparisse il nome di Google almeno una volta; anche i virus lo utilizzano per trovare sistemi con falle aperte (leggi qui).

Perchè piace Google?
Interfaccia minimalista, velocità, dimensione del database, trasparenza sui metodi di ottimizzazione del posizionamento, sono alcuni degli elementi che fanno del motore di Brin e Page un vero dominatore.
Da non dimenticare poi il coinvolgimento degli utenti internet con il modello di lancio in versione beta di nuovi servizi.

Poco lock-in nei motori di ricerca
Il lock-in è quella sorta di legame che un consumatore ha nei confronti di un prodotto o un servizio, lo scioglimento del quale comporta un costo superiore al suo mantenimento.
Chi utilizza massicciamente Windows per lavoro, ad esempio, valuterà che il passaggio a Linux sia dispendioso, non tanto per il costo della licenza o del software, quanto per il tempo da dedicare alla migrazione di sistema operativo, programmi ed, eventualmente, dati (personalmente preferisco Linux per molte ragioni, ma purtroppo soffro anche io di lock-in e sto cercando una cura efficace).
Al contrario dei software, che richiedono un'alta personalizzazione dell'esperienza, gli strumenti Internet possono essere cambiati con molta più facilità, e il lock-in diminuisce.
Un motore di ricerca crea un lock-in se è veloce e se ha la capacità di trovare e presentare rapidamente risultati utili, fattori che caratterizzano sia Google, che Yahoo che MSN e anche, in Italia, Virgilio.
Ma, come illustrato in un precedente articolo, nuovi strumenti si sono affacciati negli ultimi mesi, con lo scopo di fornire risultati più fruibili.
La categorizzazione dei risultati darà nuovi spunti al mondo dei motori ed è possibile che uno dei big player sforni nel 2005 una ricerca che presenti i risultati in categorie: molti approcci denotano già una maturità delle piattaforme ed è probabile l'acquisizione di un'azienda con le sue tecnologie o una partnership piuttosto che lo sviluppo diretto in casa.

23.12.04

[facezie] E' "camallo" la parola dell'anno ovvero la risposta italiana a "blog"

Ipotizziamo che, come il Merriam-Webster ha fatto poco tempo fa, anche qui da noi si dia risalto alla parola dell'anno, ovvero quella più ricercata nel dizionario online.
Il dizionario di italiano Paravia ci mette a disposizione, oltre alla ricerca online, una serie di statistiche, tra cui quella delle parole più ricercate. Ve ne riporto qui i prim i lemmi:

Richieste - Lemma
18183 - camallo
14758 - sospetto
9268 - cazzo
9049 - contadino
8340 - vocabolario
7192 - pleonastico
6983 - TS
6835 - mascalzone
6311 - fica
6108 - casa
5711 - polirematica
5652 - olistico
4979 - figa
4919 - obiettivo
4848 - obbiettivo
4826 - ossimoro, ossimoro
4743 - tuziorismo
4711 - metaplasia
4608 - tautologia
4225 - aggiotaggio



Interessante, vero? Oltre a camallo, che mi stupisce essere al primo posto, ho avuto la possibilità di scoprire nuovi termini come polirematica e tuziorismo.
Cari miei, prima di esultare per la ritrovata conoscenza, bisogna procedere con i piedi di piombo (una polirematica tuziorista, perchè no?)

[tendenze] Il mobile gaming in Europa e il pervasive gaming

Generalmente gli Europei imitano il comportamento degli americani nei confronti delle nuove tecnologie. C'è però un settore in cui il vecchio continente detiene un primato incontrastato: la demografia dei telefoni cellulari.

Se uniamo a questo l'innata passione dell'uomo per il divertimento, non abbiamo bisogno di antropologi di sorta per comprendere quale sia una delle potenziali killer application del settore: il mobile gaming.

Questo crea non poca insoddisfazione a chi aveva previsto che nel 2004 ci sarebbe stata l'esplosione dei terminali intelligenti per uso aziendale con funzionalità sempre più vicine a quelle del PC e mi riporta alla memoria quel periodo degli anni '80 in cui nacquero e si diffusero i Commodore Vic20 e 64, lo ZX Spectrum e l'Amiga: computer a tutti gli effetti, ma piattaforme di gioco nell'utilizzo più comune.

E lo sviluppo più interessante si sta avendo proprio in Europa e in Asia, (Giappone, Corea e Taiwan in primis). Secondo un'indagine di IDC dell'aprile del 2004 giochi, suonerie, video e musica produrranno entro il 2008 un fatturato di 8 miliardi di dollari nella sola Europa occidentale: ma sebbene ci sia un piano di business ben chiaro per i primi due soggetti, per video e musica sussiste ancora ancora molta incertezza su quali movimenti avrà il mercato .

Ecco alcuni eventi che hanno caratterizzato il mobile gaming in quest'anno in scadenza:

  • Verisign acquisisce Jamba!, un'azienda di software per giochi su cellulare. Verisign ha poi divulgato dati di crescita nel settore migliori di quelli attesi
  • InfoSpace acquisisce IOMO Ltd, società inglese che ha come clienti Vodafone, Nokia e Motorola. Tra i titoli dei suoi giochi, Tomb Raider and Tiger Woods PGA Tour Golf
  • Infospace, ancora, pochi giorni fa acquisisce Elkware GmbH, altra società impegnata nel mobile gaming e specializzata in giochi di ruolo e di strategia.

L'importanza crescente del mercato è anche testimoniata dal fatto che la ELSPA (Entertainment & Leisure Software Publishers Association), associazione inglese dei produttori di materiale servizi per l'intrattenimento, ha aggiunto alle sue classifiche dei giochi più venduti, anche quella relativa ai giochi per nGage

La frontiera dell'intrattenimento ludico è però rappresentata dal pervasive gaming: così come il pervasive computing prevede un modello in cui sarà possibile avere sempre a disposizione un dispositivo per collegarsi in rete, il gaming prevede la possibilità di giocare in rete con altri giocatori che non necessariamente utilizzano la stessa piattaforma (PC, PS2, Nintendo, java phone, Xbox, etc). Il limite attuale è dato sia dal ritardo con cui vengono pubblicati i giochi su piattaforma mobile rispetto a quelle stanziali, sia dalle limitazioni della piattaforma stessa. La sfida futura sarà quella di creare dispositivi mobili più evoluti e distribuire i giochi in contemporanea sui diversi dispositivi.

Nel frattempo, l'Europa si sta muovendo velocemente con il progetto IPerG (Integrated Project onPervasive Gaming), fondato nel settembre del 2004 e finanziato con i fondi del 6°Programma Quadro della UE: lo scopo dei partecipanti è l'analisi degli aspetti tecnologici e di quelli legati al design delle applicazioni.

Secondo IperG, con lo sviluppo di infrastrutture, strumenti e metodi per il pervasive gaming sarà possibile ottimizzare la rapidità e i costi di realizzazione, progettare un buon design, comprendere l'audience e gli impatti sociali dei giochi.

BLinks:

21.12.04

[analisi] Lo spam sollecita gli acquisti? Secondo Forrester Research, sì

In una ricerca condotta in 6 paesi (Stati Uniti, Brasile, Canada, Francia, Germania e Regno Unito), risulta che spesso lo spam riesce a essere abbastanza appealing da sollecitare un acquisto e il software è tra gli articoli più acquistati. L’analisi è stata condotta da Forrester Research su rchiesta della Business Software Alliance (BSA) and the Council of Better Business Bureaus (CBBB).

Ciò che più preoccupa la BSA è che il software, la cui vendita sottocosto viene spesso proposta in alcuni siti promossi da spam, sia materiale piratato: l’associazione ha dichiarato che il gruppo di spammer più cospicuo proviene dalla Russia e si è impegnata a collaborare con le autorità del posto per la chiusura dei siti.

Software a parte, i risultati della ricerca sono, a dir poco, sorprendenti: il 90% degli utenti Internet riceve spam, leggendone circa il 20%. Di questo numero, molti messaggi riescono a convincere il lettore: nell'elenco si riportano la percentuale di utenti che ha dichiarato di aver effettuato almeno un acquisto nelle diverse categorie:

  • abbigliamento/accessori: 22%
  • software: 21%
  • viaggi: 16%
  • investimenti: 15%
  • salute/farmaceutici: 14%
  • finanza: 11%
  • intrattenimento per adulti: 11%
  • formazione: 10%

Per quanto riguarda la capacità dello spam di attirare i clienti, nel Brasile il 66% degli intervistati ha affermato di aver fatto un acquisto sollecitato da un messaggio di questo tipo, e Francia, Gran Bretagna e USA si piazzano poco sopra al 40%.


La misura del successo dello spam nei vari paesi: in percentuale, quanti utenti hanno effettuato acqusti sollecitati da spam (fonte: BSA)

Ritornando al motivo che ha spinto la BSA a sponsorizzare la ricerca, non ci è dato sapere quanti di questi spammer in effetti rivendano software piratato e quanti invece facciano semplice pubblicità, ma in ogni caso, al di là dei rischi che corre uno spammer, il modello di marketing per molti si è rivelato piuttoto lucrativo.

E' curioso che, nel 2001, sempre Forrester affermasse esattamente il contrario (“Email marketing senza consenso? Follia”).

[tendenze] Il radar sul telefonino e le possibilità per l'M-commerce

Da Smart Mobs, l'ultima creazione di Howard Reinghold, mi giunge la notizia di un software in grado di trasformare il telefono cellulare in un radar.
Lo ha inventato Eugene Morozov che lo distribuisce gratuitamente sul suo sito.
Come funziona?
Basta scaricare il software, installarlo sul proprio telefonino dotato di BlueTooth e Java (J2ME enabled), inserire le preferenze e attendere che qualcuno che ha impostato un profilo combaciante giunga nei paraggi. A quel punto si verrà avvisati della vicinanza di una persona "gradita".
Avrete compreso che per il momento l'applicazione permette di facilitare gli incontri: i dati da inserire all'interno sono l'età, il sesso e l'orientazione sessuale.
Ma il servizio di incontri è solo uno dei tanti che possono essere basati sulla prossimità: immaginate di configurare il telefono con i vostri dati su professione, hobby, orientamenti: non appena passate nelle vicinanze di un negozio che vende un particolare prodotto che vi potrebbe interessare, vi viene segnalato.
Ricordate quando, in Minority Report, Tom Cruise, alias John Anderton, entra nel centro commerciale dove è bombardato da annunci pubblicitari tra cui quello della birra Guinness e della Gap? Nel film si illustrava il riconoscimento del'individuo attraverso la lettura della retina, ma già adesso, grazie a tecnologie a basso costo come l'RFID e BTRadar è possibile ipotizzare applicazioni similari.
Bisognerà stare attenti al mobile-spam, che diventerà personalizzato: sarà necessario quindi progettare opportune tecniche di comunicazione non troppo invasiva e, al contempo, di difesa del consumatore.

[tendenze] Blog, Wiki e social computing: da Internet, allo studio accademico, alle aziende (1^ parte)

Doveva accadere, prima o poi: il "Social Computing", quell'insieme interdisciplinare di tematiche che gravitano intorno all'utilizzo di strumenti informatici per facilitare l'interazione sociale e collaborativa, diventa oggetto di studi accademici.
Nasce, presso il Rochester Institute of Technology, il Lab for Social Computing, per comprendere come e-mail, Instant Messaging, blog e wiki stiano influenzando il modo di interagire di individui e organizzazioni.

Con il termine Social Computing si definisce l'utilizzo di strumenti informativi connessi in rete che facilitano l'interazione tra persone e organizzazioni, l'evoluzione di quello che alcuni anni fa erano le mailing list, i forum, i newsgroup, le chat e gli strumenti di groupware, ovvero ciò che rientrava nella categoria della computer-mediated communication (CMC) e computer-supported collaborative work (CSCW).
Il plus del Social Computing riguarda lo sviluppo di nuovi strumenti per lavorare in ambienti sempre più interconnessi e raggiungibili e la necessità di definirne le caratterizzazioni sociali: si cercherà quindi di accostare alla tecnologia e all'informatica gli studi su comunicazione, sociologia, psicologia e scienze politiche.
Tra i primi workshop all'interno del Lab, si parlerà di cos'è un blog, come le wiki possono supportare l'attività collaborativa e quali sono gli strumenti per mantenere reti sociali online.

Le aziende e il social computing
Nel corso del 2004 le aziende che se lo sono potuto permettere (a causa della congiuntura economica) si sono focalizzate su tematiche prettamente strategiche, come il business process management, il CRM, la gestione della supply chain, il sourcing, le iniziative per gli adeguamenti normativi.
Dall'anno prossimo è probabile che cresca l'interesse per la produttività dell'organizzazione, la gestione del capitale umano e la performance delle risorse umane: molti software vendor e fornitori di servizi cavalcheranno l'onda del clamore che il social computing ha scatenato per promuovere nuove iniziative di business che contribuiranno alla causa.
L'affermazione del blog come strumento di diffusione delle informazioni ha già dato i suoi frutti in alcune aziende: come già spiegato in un articolo precedente, Google e HP, dopo aver valutato positivamente l'utilizzo dei blog da parte dei loro dipendenti, ne stanno promuovendo la diffusione in vari settori aziendali.
Le società, comunque, non sempre hanno condiviso il successo degli strumenti collaborativi nel migliorare la condivisione di informazioni e expertise e la coesione tra i dipendenti.
C'è infatti una differenza fondamentale tra l'utilizzo dei sistemi di interrelazione nel mondo normale e nel mondo aziendale, e riguarda l'istituzione dei rapporti personali che sussistono anche nel lavoro: nella nostra sfera privata siamo soliti parlare e partecipare a discussioni che ci riguardano personalmente con persone con cui condividiamo un comune interesse. Operiamo quindi la scelta di ascoltare ed esprimerci in un certo modo e in un determinato contesto.
In azienda l'utilizzo di strumenti che, ovviamente, hanno lo scopo di migliorare la produttività è comunque visto come una imposizione: anche lo strumento più innovativo, più da da geek o da nerd non sarà percepito con lo stesso grado di entusiasmo che ne ha guidato il successo nelle comunità online perchè porta con sé una sorta di coazione all'utilizzo.
Inoltre, nell'azienda le persone sono meno spronate alla condivisione, perchè il collante tra i dipendenti è soprattutto l'appartenenza all'azienda e (forse) l'interesse verso quella determinata attività, e non, come su Internet, la condivisione di determinati intenti e idee: le interazioni sociali sono quindi obbligate e la coesione e la conseguente volontà di condivisione è minore.
Sono dinamiche aziendali consolidate e ben conosciute da chi si occupa di gestione delle persone (cercherò d'ora in avanti di non utilizzare il termine"risorse umane", perchè caratterizza soltanto una dimensione dell'individuo come elemento produttivo costituente una fonte di ricchezza).
Esisterà quindi sempre e comunque una perplessità di come questi strumenti possano migliorare la produttività aziendale: su Internet uno strumento, nato come evoluzione di altri strumenti, diventa metafora di una nuova visione della comunicazione tra le persone; nell'azienda rimane uno strumento nudo, con un significato strategico, fine all'esistenza dell'azienda stessa.
Internet ha molti scopi: condividere, unire, divertire, essere, in una parola, utile, a diverse finalità.
L'azienda deve fare profitto. Punto.
Quella che viene definita azienda adattiva può far tesoro di questa lezione e cercare di consentire la diffusione di questi strumenti lasciando che siano i propri dipendenti a prenderne la guida: la delega della responsabilità, e quindi un maggior grado di libertà, aumenta le potenzialità dell'introduzione del mezzo creando maggior partecipazione, e riconosce ai dipendenti una capacità superiore di contribuire al successo comune.

19.12.04

[rifleXioni] Le cartoline via MMS e l'antropologia sociale ovvero critica alla ragion tecnoantropologica

Anche Vodafone UK ha appena lanciato il suo servizio di cartoline telefoniche: il servizio, già in uso Italia dal 2003 (come ha ben precisato un lettore in un commento), permette agli utenti di inviare al gestore un MMS contenente un'immagine, un messaggio e un indirizzo postale; l'azienda lo stamperà e lo invierà come cartolina al destinatario specificato .

Ne parla oggi un articolo sul New Scientist: si afferma che il padre ispiratore del progetto sia Richard Harper, un antropologo che dal 2003 e fino a pochi mesi fa ha lavorato per la Vodafone inglese: lo studioso ha proposto un adattamento al mondo della telefonia cellulare di una pratica in uso presso gli abitanti delle isole Trobriand, piccolo arcipelago della Melanesia ad est di Papua Nuova Guinea.

Ogni anno i melanesiani (di cultura polinesiana, badate) si scambiano collane di conchiglie rosse e braccialetti di conchiglie bianche in un rituale sociale che unisce i vari gruppi di isolani tra loro.

Questo tipo di scambio, chiamato dagli autoctoni "kula", fu documentato per la prima volta nel 1922 da Bronislaw Malinowski, pioniere dell'antropologia sociale e padre del funzionalismo: la caratteristica peculiare del kula è che, dal momento che avviene all'interno di un circolo di comunità, nessuna comunità riceve un regalo da quella a cui consegna il proprio dono. Le collane circolano solo in senso orario, i bracciali solo in senso contrario. Ne seguiva che gli oggetti appartenenti ad una categoria potevano essere scambiati solo con oggetti dell'altra categoria. Gli oggetti circolano in continuazione, restando nelle mani del loro possessore solo per un periodo limitato di tempo.

Malinovski scoprì che lo scambio cementava il legame sociale tra i gruppi di isolani e, ai giorni nostri, Richard Harper ha recuperato questa idea con lo scopo di conferire un'utilità sociale alla tecnologia: lo scenario prospettato vede il destinatario della cartolina che spedirà a sua volta un'immagine a un'altra persona, coinvolgendo quindi più sottoscrittori nelle rete (sia sociale che telefonica).

Ma qual è l'attinenza con il circuito di scambio Kula dei melanesiani?

E qual è la differenza con il ben diffuso scambio di cartoline, pratica molto diffusa in tutto il mondo?

Per entrambe le domande la risposta è: nessuna.

Perchè quindi scomodare un ricercatore e scrivere un articolo su una nota rivista scientifica millantando supposte attinenze con prassi che, in realtà, sono palesemente differenti?

Mi chiedo cosa ne possa pensare la comunità degli antropologi e dei lettori del New Scientist, di fronte a queste manovre di marketing pseudo-scientifiche.

Quest'anno Harper è stato assunto da Microsoft per fornire ai progettisti software una prospettiva dal punto di vista dell'utente finale. In sua compagnia c'è anche un'altra studiosa, Abigail Sellen, che si occuperà dello studio dell'utilizzo del personal computer nelle case.

E' lecito pensare che se ne usciranno con qualche innovazione presa in prestito da altri sistemi (Linux? Mac?) e la giustificheranno attraverso riferimenti a pratiche di popoli esotici che ne trarranno giovamento grazie alla pubblicità che si farà di loro.

Scherzi a parte, l'impiego di antropologi nelle società tecnologiche non è una novità, ma anzi sta diventando una tendenza sempre più diffusa: il tasto verde della fotocopiatrice, suggerito a Xerox da Lucy Suchman negli anni '80, l'indagine sull'impiego della tecnologia che Intel ha chiesto a Genevieve Bell (intervista), l'utilizzo in servizi di ricerca amicizie come Friendster o a comunità di giocatori online, come Everquest, sono testimonianze di come la tecnologia, sebbene ritenuta parziale responsabile del crescente isolamento nel mondo ocidentale, costruisca anche strumenti in grado di abilitare l'organizzazione di reti sociali: Internet e le comunità online ne sono l'esempio più evidente.


17.12.04

[e-commerce] Sulla rilevazione delle opinioni dei clienti

Alcuni giorni fa ho inviato una richiesta di discussione a Mlist, la mailing list dedicata ai vari aspetti del Marketing Online.
L'argomento è quello in oggetto e, in particolare, chiedevo agli interessati un parere sul grado di interesse che riveste per le aziende l'opinione del cliente e sulla presenza di adeguati strumenti, processi, mansioni che ne verifichino l'andamento.
La discussione si è fatta interessante, sebbene le adesioni non fossero molte, e ha cominciato a delineare alcune caratteristiche dell'approccio che le aziende italiane utilizzano nei confronti di clienti.
Vi invito alla lettura ed eventualmente al commento --> http://www.mlist.it/archivi/allthread/env/msgid-26989.html#26989



16.12.04

[sicurezza] Go Phish! Oggi anche in Italia

Leggo e riporto da una notizia ASCA: "CartaSi, la Societa' che gestisce l'omonima carta di credito, si dichiara estranea alle e-mail che stanno raggiungendo in questi giorni alcuni suoi Clienti. Le e-mail in questione sono un tipico esempio di ''phishing'' e hanno lo scopo - spiega una nota - di sottrarre, all'insaputa del destinatario, dati personali e confidenziali (il numero della carta di credito, o altri dati e codici di sicurezza)."

Anche io voglio dare un piccolo contributo alla causa mostrandovi un esempio dei tanti messaggi di phishing che ho ricevuto negli ultimi giorni:


Il soggetto della mail recita "Washington Mutual: Urgent Security Notice For Clients" e il corpo del messaggio è costituito dall'immagine qui sopra (non da un testo HTML): sfiorando il messaggio con il mouse viene visualizzato un URL effettivo della Washington Mutual, ma cliccandoci si viene condotti a http://64.231.8.76:87/wa/confirm.htm.
Il mio antivirus mi segnala subito la presenza del virus JS/Stealus.gen nella pagina e mi permette di bloccarne la visualizzazione.

Fate molta attenzione: secondo un rapporto pubblicato a fine novembre dall'APWG, un consorzio di forse di pubblica sicurezza, istituzioni finanziarie e aziende di computer security, i fenomeni di phishing sono cresciuti del 36% al mese da luglio 2004.
Il motivo risiede nelle alte possibilità lucrative di questo tipo di crimine: secondo Gartner, infatti, il clickthrough di questi messaggi è pari al 3%, mentre quello dello spam è solo dello 0,5%.
E le previsioni di crescita per il 2005 sono ancora più pessimiste.

BLinks:

[news] Motori di ricerca per video: Yahoo! arriva per primo

Yahoo! ha reso disponibile (in versione beta, come s'usa definirla) un nuovo motore di ricerca per contenuti video. Ne avevo parlato in un precedente articolo, e ora trovate la notizia e gli approfondimenti nel blog di Massimo Russo.

Previsioni per il 2005


Alcuni mi hanno chiesto di fare delle previsioni sull'andamento del mondo della tecnologia informatica nel 2005 e ho promesso loro che le avrei pubblicate anche qui.
Rimanete collegati, dunque.

15.12.04

[tendenze] Il dilagare delle Beta


No, cari miei, non sto parlando delle gloriose Lancia, sportive ed eleganti vetture degli anni '70, ma della moda di qualificare come "versione beta" un servizio, normalmente online, che viene reso pubblico ma in uno stato di collaudo esteso anche ai futuri fruitori.

La storia delle versioni beta
Nato nel mondo dell'ingegneria del software, il termine beta qualifica la versione di un'applicazione "quasi ultimata e in fase di test". Fino a pochi anni fa i programmi in questo stadio di sviluppo erano testati dalle strutture interne delle aziende.
In seguito alcuni programmatori, soprattutto i creatori di shareware e freeware, hanno pensato di diffondere versioni beta dei propri programmi via Internet, seguiti dalle industrie del software che decisero di distribuire versioni beta, opportunamente limitate o incomplete, dei propri programmi. Questa evoluzione dei sistemi di test permetteva di coinvolgere i futuri utilizzatori valutandone i differenti punto di vista (è un'operazione che ho utilizzato anche io in una mia precedente versione).
Poi è arrivato Google.


Google il trendsetter
E' il motore di ricerca più utilizzato, in cui il marketing è condotto da figure ibride, a metà tra il tecnologo e l'esperto di marketing.
Google ha reinventato il concetto di beta, convincendo le masse di far parte di un grandioso programma di ricerca e sviluppo, ma in realtà fornendogli dei prodotti quasi perfetti dove c'è ben poco da testare.
Google teme molto la rivalità degli altri motori di ricerca, quelli vecchi e
quelli che sono appena usciti, è indiscutibilmente padrona delle tecniche di identificazione degli early warning, ovvero dei primi segnali di una nuova tendenza: l'operazione che sta conducendo mira a un consolidamento della sua immagine e, sebbene i risultati delle ricerche comincino a mostrare segni di adulterazione (grazie alle tecniche e alle aziende di ottimizzazione del posizionamento), Google rimane tuttora dominatore incontrastato del mondo dei motori.
Avete notato quanto si stia parlando di Google nelle ultime settimane? Dalla Toolbar, a Google Scholar, da Google Print a Gmail, dai nuovi accordi con le librerie universitarie alla quotazione in borsa: è un bombardamento di marketing vero e proprio.


BETATM
Beta è un nuovo marchio, privo di copyright, che tutti potranno utilizzare per offrire un'immagine di sè più disponibile, amichevole e avvicinare così il pubblico, come a dire: "Anche io, come te, ho i miei punti deboli, sono consapevole di non essere perfetto, ma voglio comunque darti la possibilità di provare i miei servizi".
Come non cascarci?

BLinks:

[analisi] Una ricerca svela il ruolo del CIO nelle grandi aziende Italiane

Il CIO è una figura professionale che si configura come evoluzione di quello che una volta era denominato Direttore dei Sistemi Informativi o IT Manager, e che, abbracciando spesso tematiche aziendali contigue all'Information Technology, riveste un'importanza sempre maggiore e responsabilità più estese.

E' quanto emerge dalla ricerca condotta dalla School of Management del Politecnico di Milano e da Hewlett-Packard Italiana e che ha coinvolto circa 20 CIO e 6 top manager di altrettante industrie italiane che, a detta dei promotori, rappresentano il 25% della spesa IT in Italia. I risultati della ricerca sono stati presentati lunedì 13 dicembre scorso a Milano nel Primo Convegno di Top Circle, la comunità dei Top Manager dell'ICT.

Vediamo allora in sintesi i punti salienti:

  • le imprese coinvolte sono molto grandi, ma nel panorama industriale sono le prime a recepire le variazioni dei trend che solitamente provengono dalle aziende americane;
  • nel 75% dei casi il CIO risponde all'amministratore delegato o al direttore generale;
  • partecipa ai comitati direzionali della società;
  • a volte si occupa anche di altre funzioni come l’organizzazione o delle tecnologie all'interno dei prodotti e servizi che l'azienda offre;
  • l'attività di sourcing diventa sempre più importante: molti CIO scelgono di collocare le attività di sviluppo all'esterno (outsourcing) ma di conservare il mantenimento dell'esercizio all'interno;
  • nell'economia delle competenze professionali, le mansioni gestionali, architetturali e progettuali assumono sempre maggiore importanza a discapito di quelle operative;
  • sul piano organizzativo esistono due tendenze principali che vedono, da una parte, un IT centrale con un ruolo che varia dal tracciamento di linee guida a una gestione integrale anche delle realtà locali, dall'altra una strutturazione con funzioni trasversali o dedicate a compiti specifici come l'innovazione o l'amministrazione della clientela interna (non più utenti, ma clienti, non solo un cambio della tecnologia ma un vero e proprio paradigm shift);
  • sull'IT governance non è invece possibile tracciare un profilo univoco, in quanto le interpretazioni che le aziende danno al processo sono molteplici: per alcuni riguarda le regole di rapporto all'interno dell'IT, per altri gli standard e le architetture, e altri ancora vi inseriscono il rapporto tra top management e CIO;
  • la valutazione degli investimenti, problematica che nell'economia post-"new economy" ha subito profonde trasformazioni. Molti ancora conducono analisi basandosi solo sui costi, ma la metà degli intervistati afferma di utilizzare metodologie finanziarie come DCF, ROI ed EVA, e poco i metodi multi-attributo;
  • in pochi misurano le performance di un investimento sul business aziendale.

La validità di questa ricerca non sta solo nel monitorare lo stato dell'evoluzione del manager che si occupa di ICT, ma anche nel dare suggerimenti da tradurre in direttive aziendali e delinea il profilo di un CIO che in futuro si consoliderà anche nel resto delle aziende italiane, che non gestirà solo le tecnologie, ma l'informazione nella sua globalità.

E' possibile però che in alcune realtà peculiari, dove ne sussistano i presupposti, vengano introdotte mansioni tratte da una costola dell'IT: lo dimostrano le recenti creazioni del Chief Data Officer in Yahoo! e la figura di Chief Performance Officer, sorta di ibrido tra un business executive, un tecnologo e un mediatore (o interprete).

BLinks:

  • www.cio.com, per restare sempre aggiornati sull'evoluzione della figura professionale

14.12.04

[analisi] Linux: meno bachi del software commerciale

In molti lo hanno da sempre affermato ed oggi, finalmente, se ne hanno le prove evidenti.
Secondo una
recente analisi condotta da 5 ricercatori dell'università di Stanford, Linux contiene solo 985 bachi in 2,6 milioni di linee di codice, l'equivalente di 0,17 bachi per 1000 linee, contro i 20-30 del software commerciale (l'equivaente di 52000-78000 Quest'ultima statistica è frutto di una una ricerca del CyLab Sustainable Computing Consortium presso la Carnegie Mellon University's. Facendo un'equivalenza, in 2.7 milioni di linee di codice troveremmo da 52000 a 78000 bachi.

Dei 985 bachi identificati, 627 riguardavano parti critiche del kernel, 569 provocavano crash del sistema, 100 erano falle della sicurezza e 33 provocavano performance non ottimali del sistema.

Il progetto di analisi del codice sorgente di Linux è iniziato nel 2000 presso il Computer Science Research Center della Stanford UNiversity, nell'ambito di un programma di ricerca più ampio finalizzato al miglioramento dei processi di progettazione del software.


Circa 150 anni fa Benjamin Disraeli (1804-1881) disse una frase illuminante che mi ritorna alla memoria ogni qualvolta legga analisi come queste: "Ci sono bugie, dannate bugie e statistiche".
Infatti, dal punto di vista dell'ingegneria del software, è più opportuno considerare le design feature del sistema operativo per comprendere quale sia più affidabile. Inoltre, Linux ha alle spalle una vera e propria cultura che, facendo leva sul concetto di progettazione partecipativa, permette un'incomparabile condivisione di idee di progetto e di controlli incrociati.
Questa statistica super partes ha però il pregio di rivolgersi a chi, nell'industria, deve prendere decisioni giustificate anche da parametri quantitativi e conserva ancora delle diffidenze circa l'affidabilità e la sicurezza di un sistema operativo open source e di questa tipologia di software in generale.

Google sigla un accordo con le università di Oxford, Harvard e Stanford



Secondo un articolo apparso oggi sul New York Times, Google ha lanciato un progetto pilota per consentire la ricerca all’interno dei libri conservati nelle biblioteche di alcune tra le maggiori università europee ed americane, tra cui Oxford, Harvard e Stanford.

Le prestigiose istituzioni stanno valutando da tempo la possibilità di rendere disponibile al mondo accademico mondiale i contenuti dei milioni di testi che costituiscono il proprio patrimonio di conoscenza e hanno trovato ora in Google un partner affidabile e la tecnologia più avanzata.Nella fase iniziale le collaborazioni con Google, che sosterrà i costi del progetto, prevedono la digitalizzazione del materiale di pubblico dominio: se il programma si rivelerà di successo, l'attività della società Californiana proseguirà con l’indicizzazione della maggior parte dei volumi delle biblioteche.


13.12.04

Il TCO di Linux è migliore di quello di WIndows (nelle PMI, almeno)


L'annoso dilemma ogni tanto si ripresenta al manager IT: vorrei migrare su Linux alcune servizi che attualmente sono ospitati da Windows , ma quanto mi costerà poi mantenerli?
Sono stati pubblicate diverse analisi a proposito, alcune delle quali palesemente sponsorizzate, ma lo studio della Cybersource, azienda australiana di Melbourne che ne traccia l'andamento dal 2002, ha sempre brillato per imparzialità e autorevolezza.
Riassumo alcuni passi degni di attenzione:

  • lo studio copre un periodo di 3 anni, intervallo di tempo utilizzato nel calcolo dell'ammortamento delle componenti hardware e software interessate;
  • un'azienda di 250 dipendenti può risparmiare fino al 36% dotando le postazioni dei propri dipendenti del sistema operativo open source e delle adeguate applicazioni;
  • anche l'utilizzo di una distribuzione commerciale consente un risparmio del 27%;
    non è stato conteggiato il costo del malware (virus, spyware, worms, keylogger, adware), poichè il calcolo avrebbe mosso la bilancia ancora più in favore di linux;
  • il modello di costi comprende le spese relative a sistemi desktop, server, sistemi di rete, mail server, server di stampa e di e-commerce, server di database, server internet e intranet, software di business, strumenti di produttività, staff IT, consulenze, training, costi di sistema.

La notizia ha atto nascere un interessante discussione su slashdot.org, sia in merito all'argomento Linux vs. Windows, sia sul senso di questo tipo di studi comparativi.

10.12.04

[sicurezza] Rapporto dal meeting dei Direttori della Sicurezza (New York, 10/12/2004)

La crescita delle frodi online e l'impatto delle nuove normative federali sono gli argomenti più caldi del secondo CSO Interchange del 2004 che si sta svolgendo in questi giorni a New York .
Un sondaggio condotto tra i partecipanti circa le componenti che hanno avuto un grande impatto finanziario nelle aziende pone al primo posto gli adeguamenti alle norme, seguiti dalle minacce introdotte da worms, virus e cavalli di Troia. Tra gli altri argomenti di interesse troviamo la diffusione delle tecnologie wireless e gli attacchi che si basano su vulnerabilità sconosciute o appena scoperte, denominate "zero-day" software vulnerabilities.

Alcune statistiche:

  • il 30% dei partecipanti ha individuato come l'argomento più importante fosse l'adeguamento alle normative;
  • il 28% ha invece identificato le minacce di worms, virus e cavalli di Troia;
  • il 10% infine si focalizza sulla security awareness, per combattere la noncuranza degli utenti finali;
  • l'80% afferma che gli attacchi informatici hanno avuto un impatto finanziario nella loro azienda, e il 62% quantifica tale impatto come inferiore a 50.000$ all'anno;
  • il 69% è molto preoccupato delle frodi online;
  • il 70% riporta direttamente al CEO (l'equivalente del nostro amministratore delegato) o al CIO (il direttore dei sistemi infrmativi), sintomo della crescente improtanza che sta assumendo il controllo della sicurezza aziendale;
  • il 69% afferma che, sebbene il lavoro sia diventato più complesso nell'ultimo anno, assunzioni e budget sono state comunque ridotte;
  • il 60% afferma che è molto difficile trovare personale qualificato nelle tematiche della sicurezza,
  • più del 60% afferma di non essere avvisata in tempo in caso di attacchi informatici rilevanti;
  • l'84% afferma che i programmi di sicurezza sono economicamente sottostimati , e i finanziamenti ricevuti non sono sufficienti.

Per approfondimenti:

9.12.04

[sicurezza/competitive intelligence] Manager! Attenzione ai metodi legali (o quasi) di raccolta delle informazioni

Puntata precedente: Firewall vs. Cultura della sicurezza: 0 - 1

Spionaggio industriale
Sono in molti ad averne sentito parlare, ma pochissimi sanno cosa significhi stabilire contromisure efficaci per combatterlo.
Molti manager della sicurezza aziendale non hanno cognizione delle minacce e dei metodi che le organizzazioni di intelligence impiegano: purtroppo, i metodi di raccolta sono molto più efficaci nelle aziende che negli uffici governativi, poichè le imprese non pongono in essere le adeguate contromisure.
La raccolta di informazioni si avvale di metodi legali e non legali: tra i primi includo il reverse engineering, ovvero la possibilità di acquistare un prodotto e studiarne il comportamento e le proprietà per replicarne le funzionalità. E' capitato, però, che l'analisi di un'implementazione per produrne una che sia compatibile costituisse una violazione alla legge (ad esempio, una API di una piattaforma Software può contenere un brevetto): la situazione legale in questi casi presenta ambiguità e conviene quindi affrontare il problema prima che l'attività di reverse engineering sia iniziata.

Altri metodi si avvalgono dell'esame delle attività di un'azienda evidenziate dai brevetti depositati o dalla documentazione pubblicata su periodici e riviste tecnico-accademiche.
L'informazione da fonti aperte, ovvero l'Open source information (OSI), fornisce una grande quantità di dati ai concorrenti: l'OSI esiste in varie forme, dagli articoli di giornale, ai rapporti aziendali annuali, alle richieste di brevetto, alle informazioni di marketing.
I brevetti, ad esempio, pur essendo intesi come uno strumento di protezione del proprio capitale intellettuale, molte volte si trasformano in un mezzo per interpretare gli sviluppi di un'azienda.

In questi casi è necessario comprendere come il fattore TEMPO sia fondamentale: divulgare un'informazione troppo presto può sì fare in modo che aumenti l'interesse verso i prodotti del'azienda, ma può rivelarsi un boomerang se l'informazione è troppo dettagliata o se i potenziali concorrenti hanno il tempo di reagire nell'intervallo che va dalla divulgazione al rilascio del prodotto.

Dall'esame dell'OSI i concorrenti possono determinare una enorme quantità di informazioni sulle società e i loro prodotti: le perdite possono essere spaventose, specialmente quando un'azienda non si rende conto che ha rilasciato liberamente troppe informazioni.
Un altro metodo per il trasferimento indesiderato di conoscenza ha luogo quando un impiegato viene assunto dalla concorrenza: sebbene molti lavoratori non intendano render note informazioni sensibili, il passagio di conoscenza è inevitabile. Nell'attività quotidiana è impossibile non considerare il bagaglio di informazioni e competenze che una persona ha sviluppato attraverso le proprie precedenti esperienze professionali.

Attenti a conferenze e fiere
Molte aziende inviano abitualmente i propri ricercatori e addetti al marketing a questi eventi sia per motivi di aggiornamento sia per vendere servizi o prodotti. Queste persone normalmente diffondono informazioni meglio di quanto riescano a raccogliere e diventano facile preda degli specialisti inviati dalle società che utilizzano lo spionaggio industriale. Essi di solito agiscono come potenziali clienti o ricercatori per carpire le informazioni da coloro che hanno la volontà di darle. Attraverso un training avanzato questi ricercatori hanno perfezionato l'arte della raccolta.

La minaccia che ha un nome impronunciabile
Un discorso a parte meritano le tecniche utilizzate dai servizi di intelligence stranieri: le nazioni estere hanno la buona abitudine di contattare i nativi del loro paese che hanno lavorato o avuto rapporti con determinate aziende allo scopo di recuperare informazioni ottenute dalle società. Di norma, un individuo è più leale alla sua terra natia che alla società straniera per cui ha lavorato. Queste persone sono reclutate dai servizi di intelligence stranieri e la conoscenza in loro possesso viene trasferita alla bisogna a società e nazioni estere. Si sono verificati casi in cui un servizio di intelligence abbia reclutato un patriota per lavorare in un'azienda straniera, e tutto a sua insaputa: le agenzie sono in grado di assistere nell'ottenimento del lavoro e di fornire supporto per qualsiasi necessità, senza far trasparire nulla e senza soprattutto far comprendere all'individuo che verrà contattato successivamente per fornire informazioni.

Blinks

8.12.04

Exalead, che motore!

Risultati per categorie, preview dei siti, localizzazione geografica dei siti e altro http://beta.exalead.com

Per ora dichiara di ricercare in 1 miliardo di pagine (Google: 8 miliardi).


My God!

Accoona matata, ovvero, non preoccupatevi dei motori di ricerca, ci pensano i cinesi

Ma che c'entrerà mai il Re Leone con i cinesi? C'entra, perchè il loro nuovo motore di ricerca (loro, dei cinesi) si chiama Accoona, dalla frase Swahili "accoona matata," che sta per "senza preoccupazioni, non preoccuparti".
E le connessioni finiscono qui.
In ogni caso, nostri amici dagli occhi a mandorla ne hanno messo a segno un'altra: una presentazione mondiale con nientepopodimeno che Bill Clinton, un accordo di partnership esclusiva con China Daily Information Co., l'agenzia governativa che gestisce un sito web in cinese e inglese.
L'accordo dà ad Accoona l'opportunità di offrire informazioni su 5 milioni di società cinesi, un gran bel database, non c'è che dire.
Infine, a guidare la società sono stati chiamati anche Eckhard Pfeiffer, ex-CEO di Compaq e and Stuart Kauder, direttore degli sviluppi della DoubleClick.
Ma quali sono le peculiarità di Accoona, tecnicamente parlando?
Secondo Pfeiffer, il motore di ricerca offrirà risultati più rilevanti dei suoi concorrenti, grazie all'utilizzo dell'intelligenza artificiale. A differenza delle ricerche tradizionali, basate sulle keyword, Accoona presenterà risultati che possono non contenere la keyword esatta, ma che saranno comunque rilevanti, ponendo i risultati sponsorizzati in cima alla lista e suddivisi dagli altri.
L'intelligenza artificiale del motore utilizza la tecnologia "SuperTargets™", all'uopo sviluppata. Per esempio, nelle ricerche con più termini, l'utente può evidenziare la parola più importante e Accoona ricercherà pagine dove quel termine è più rilevante degli altri.
Beh, l'ho confrontato con Google ed i risultati non sono poi tanto male: ricercando "search engine" ho ottenuto 12 milioni di risultati con Accoona e 28 milioni con Google, ma il primo privilegia i siti che parlano di search engine, mentre il secondo pone ai primi posti i motori di ricerca veri e propri.
Una ricerca di "George Bush" dà risultati simili (3 milioni del cinese contro 16 milioni dell'americano, però), sebbene Accoona mi abbia comunicato quasi subito che l'aeroporto di Houston è intitolato a Bush senior.

Che dire: i cinesi, oltre che saper lavorare, sanno anche farsi pubblicità. Lo scopo, peraltro palese, del motore di ricerca è quello di promuovere nel mondo la conoscenza delle società cinesi. Con 5 milioni di aziende non si ha che l'imbarazzo della scelta.

Avete già comprato il dizionario cinese? Bene. Ora esercitatevi a leggere Orgoglio e pregiudizio

Aggiornamento del 10/12/2004:
Ho invitato i partecipanti del forum sui motori di ricerca di HTML.it a discutere dell'argomento, e i pareri non sono molto incoraggianti. Leggete qui

7.12.04

I PC di IBM emigrano in Cina, e insieme a loro, gli scienziati

Per chi ancora non lo sapesse, la divisione Personal Computer di IBM sarà ceduta alla società cinese Lenovo all'interno di un accordo che prevede anche la cessione del 18.9% delle azioni della Lenovo a Big Blue. La Lenovo diverrà quindi il terzo produttore di PC al mondo. dietro a Dell e HP (ora è al 9° posto, secondo Gartner).
La manovra condotta da Sam Palmisano, il CEO di IBM, ha sconcertato gran parte dell'opinione pubblica, sebbene le ragioni dietro a questa cessione siano molto concrete:
1) la concorrenza è sempre più alta e i margini di guadagno nel mercato dei PC si assottigliano sempre più;
2) secondo un rapporto di Gartner group di settimana scorsa (concorde con un rapporto IDC di settembre), il mercato dei PC sarà vivace nel 2005 per poi ridimensionarsi al ribasso dal 2006 al 2008. In questo periodo il mercato più attivo sarà quello dei paesi emergenti (tra cui la Cina), mentre sono altamente probabili acquisizioni e operazioni di merge tra società;
3) IBM dal 1992, con l'avvento al vertice di Lou Gerstner, ha iniziato un nuovo corso che ha restituito all'azienda l'immagine di Grande Innovatrice che aveva fino ai primi anni '80: investire sulle tecnologie aperte Linux e Java, pur mantenendo le attività già consolidate, e aumentare la parte relativa ai servizi ha portato nuova linfa e nuove sfide a Big Blue. Per Palmisano, già luogotenente di Gerstner, il business del PC che IBM conosce dal 1981 (anno in cui produsse in serie il suo primo perconal), ha perso di attrattiva;
4) che ci sia qualche collegamento con la recente costituzione a Pechino del consorzio power.org? L'iniziativa promossa da IBM e da 15 partner, ha lo scopo di favorire la diffusione dei processori Power in mercati che vanno dalle console da gioco (nintendo e in futuro xbox e playstation) a quello dei supercomputer (BlueGene, il più grande supercomputer al mondo monta processori power) per passare attraverso l'elettronica delle autovetture. I membri della comunità collaboreranno alla creazione di nuovi dispositivi e applicazioni basati sui chip Power e condivideranno fra loro componenti e know-how. Le aziende che per ora compongono il consorzio sono AMCC, Bull, Cadence, Design Systems, Chartered Semiconductor Manufacturing, Culturecom, IBM, Jabil Circuit, Novell, Red Hat, Sony Corporation, Shanghai Belling, Synopsys, Thales, Tundra Semiconductor e Wistron

Che ci sia un collegamento oppure no, quest'ultima notizia dimostra come i tempi del trasferimento di conoscenza si siano assottigliati: la Cina ha iniziato il nuovo corso della sua economia con il reverse engineering dei prodotti creati in occidente e Giappone per poi passare alla produzione di prodotti innovativi propri. Ultimamente ha addirittura invitato alcuni suoi scienziati emigrati negli USA a ritornare a casa per ricoprire posti di preminenza in aziende e università.
Promuovendo un'educazione basata sull'altissima specializzazione e sfornando tecnici molto qualificati, la Cina è riuscita a guadagnarsi una fiducia a livello globale che ora la rende ospite ideale di iniziative di ricerca collegata alla produzione. In questo modo la catena produttiva è più efficiente, come ha ben dimostrato l'andamento dell'economia cinese, e il vantaggio è ovviamente anche di coloro che hanno contribuito a tutto ciò, che potranno vendere prodotti basati sulla tecnologia con gli occhi a mandorla.
Avete già comprato un dizionario di Mandarino?

3.12.04

[Competitive Intelligence] La Competitive Intelligence per l'azienda di oggi e domani

Mi sono confrontato recentemente con alcuni manager della vecchia e della nuova scuola sulle metodologie che supportano le decisioni: ebbene, ognuno di essi affermava con supponenza di sapere benissimo quello su cui stavano lavorando i concorrenti, ma, di fronte a domande specifiche sui dati in loro possesso e sulla sistematicità del monitoraggio, fornivano risposte estremamente vaghe o approssimative. Si mostravano tutti d'accordo, naturalmente, sulla necessità di avere una visione del mondo esterno, ma si trovavano talmente succubi della ricerca dei risultati da risultare inconsapevoli delle potenzialità della Competitive Intelligence nella risoluzione di gran parte dei loro problemi.
E quindi eccomi qui con un po' di opera di evangelizzazione, chissà mai che qualcuno si svegli dal lungo torpore. Perchè questo titolo?


La Competitive Intelligence per l'azienda di oggi e domani
Perché questo titolo? Perchè le aziende di ieri non utilizzavano forme di Intelligence a scopi strategici e sono rimaste, appunto, "le aziende di ieri", società incapaci di riconoscere il fatto che nel panorama economico attuale sempre più cresce l'esigenza di confrontare l'attività della propria azienda con i movimenti della concorrenza, ovvero, per dirlo con un termine in voga, dei competitor.

Introduzione
Alcuni includono la Competitive Intelligence (da ora in poi CI) all'interno della definizione di Business Intelligence, sebbene quest'ultimo termine sia più diffuso per descrivere l'insieme degli strumenti informatici e delle metodologie per raccogliere e analizzare quei dati che supporteranno le decisioni aziendali.
La CI è invece un processo di raccolta (in forma legale ed etica) ed analisi di informazioni sulle capacità, vulnerabilità e intenzioni della concorrenza, nonché un monitoraggio degli sviluppi all'interno del mercato (nuovi competitor o nuove tecnologie che potrebbero portare sostanziali cambiamenti), allo scopo di fornire materiale utile per chi prenderà decisioni.
L'azienda che utilizza la CI sarà in grado di anticipare i movimenti del mercato, anziché reagire ad essi.

Cos'è la Competitive Intelligence?
La CI è il processo di monitoraggio dell'ambiente competitivo, un programma sistematico ed etico per raccogliere, analizzare e gestire informazioni che possano interessare i piani le decisioni, le attività di una società.
La CI permette al management di prendere decisioni supportate da adeguate informazioni e si può applicare in tutti i settori di un'azienda e in tutti gli ambiti decisionali, dal tattico allo strategico.

Il Ciclo della CI
La CI eredita molte prassi e metodologie dall'attività di Intelligence vera e propria, tra cui il ciclo continuo nel quale si inseriscono le varie operazioni di:
1. pianificazione e direzione, l'attività da condurre con chi prende le decisioni nell'azienda per raccogliere necessità
2. raccolta delle informazioni, in modo legale ed etico;
3. analisi: interpretazione dei dati e redazione delle azioni suggerite
4. disseminazione: divulgazione dei risultati ai decision makers
5. feedback: raccolta dei feedback e delle necessità di continuità del processo

A differenza della business intelligence e del knowledge management, la CI si focalizza su eventi e tendenze esterni, con un focus particolare su attività e intenzioni dei concorrenti. Uno degli obiettivi chiave sono i cosiddetti early warnings, ovvero degli avvisi riguardanti i le prime avvisaglie dei movimenti della concorrenza.

Una delle attività chiave della CI è l'analisi, che trasforma i dati grezzi (ovvero una collezione di documenti, numeri, statistiche) in intelligence utilizzabile (dati organizzati e interpretati per rivelare tendenze, relazioni, modelli non visibili)

Il primo riferimento alla Business e alla Competitive Intelligence viene dal supercitato "Arte della guerra", di Sun Tzu: per avere successo in guerra devi conoscere totalmente le tue forze e le tue debolezze, ma anche quelle del tuo nemico. La mancanza di una di queste componenti potrebbe portare alla sconfitta.

Esistono alcune aziende che offrono servizi di CI, e strumenti automatizzati che facilitano il lavoro di analisi.

I professionisti della Competitive Intelligence sono poi organizzati all'interno della SCIP, Society of Competitive Intelligence Professional.


1.12.04

Va ora in onda: Google

La notizia è datata 30 novembre: Google, Microsoft e Yahoo stanno sviluppando (separatamente, che vi credete?) nuovi motori di ricerca dedicati al video digitale.
Il progetto di Google è il più ambizioso: indicizzare e trovare brani di video tratti dai principali programmi televisivi.
Microsoft, invece, si focalizza più sul mercato delle televisioni via cavo, anche per sponsorizzare la sua piattaforma Microsoft Media Center: la tecnologia della società di Redmond permetterà di accedere alla ricerca di video presenti su Internet e canali on-demand.
Yahoo, dalla sua, introdurrà un motore di ricerca di video online, mentre AOL ha finalizzato l'acquisizione della società di ricerca audio SingingFish.

Altre info le troverete nell'articolo originale.