
Nel 2007 viene creata un'applicazione Facebook chiamata MyPersonality, che permette agli utenti di compilare dei brevi questionari psicometrici.
Sulla base di questo, crea un piccolo profilo psicologico (basato sui Big Five).
Nell’ecosistema di Facebook, diventa possibile confrontare i risultati di questi test con tutti i tipi di altri dati online dei soggetti (likes, pagine seguite, informazioni di profilo, ecc.).
Diventa molto semplice trovare delle correlazioni tra cose a cui hanno messo un “like”, cose che hanno condiviso o pubblicato, sesso, età, luogo di residenza, ecc.
Ciò ha permesso ai ricercatori di fare correlazioni e trarre deduzioni molto affidabili.
Esempi: gli uomini a cui piaceva il marchio di cosmetici MAC avevano leggermente più probabilità di essere gay; uno dei migliori indicatori per l’eterosessualità era “gradire” il Wu-Tang Clan; i seguaci di Lady Gaga erano tendenzialmente estroversi, mentre quelli che amavano la filosofia erano più introversi.
Ogni informazione di questo tipo è troppo debole per produrre una previsione affidabile su una persona, dove prevale l’individualità del singolo.
Quando migliaia di singoli dati vengono combinati, le previsioni risultanti diventano molto più accurate.
Questo ha permesso di comprendere un fenomeno (il comportamento social delle persone), ma ha anche aperto la strada ad altre applicazioni, che hanno creato un database di profili di utenti associati a differenze individuali (giovane conservatore; democratico divorziato; etc) che sono poi stati usati per indirizzare campagne elettorali.
Es. il microtargeting psicografico operato da Cambridge Analytica durante le elezioni americane del 2016 e la Brexit, grazie a modelli di Machine Learning, una forma di Intelligenza Artificiale.
La scienza che studia tecniche computazionali in grado di emulare l’intelligenza umana.
L’abilità di una macchina di mostrare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività.
L’Intelligenza Artificiale (IA) permette a sistemi informatici (software e/o hardware) di capire il proprio ambiente, mettersi in relazione con esso e risolvere problemi, agendo verso un obiettivo specifico.
I sistemi di IA sono capaci di adattare il proprio comportamento analizzando gli effetti delle azioni precedenti e lavorando in autonomia.
L’IA è già parte della trasformazione digitale del mondo contemporaneo.
Quali attività sarà possibile far svolgere alle IA, e con quali conseguenze nelle relazioni tra e con gli esseri umani?
Il campo d’applicazione della IA è diviso in un vastissimo insieme di aree specializzate, per ciascuna delle quali esistono sistemi molto efficienti nel compiere una azione, ma totalmente inadatti a compierne altre.
Si tratta di una delle principali differenze rispetto all’intelligenza umana, che per definizione è in grado di adattarsi a diversi tipi di problemi.
Ad esempio, i programmi di machine translation (traduzione automatica di testi) spesso raggiungono risultati pari o migliori degli umani nella traduzione di un altissimo numero di lingue.
Tuttavia, non riescono a tradurre il senso di espressioni idiomatiche o astratte (umorismo, metafore), a meno che non siano espressamente pre-programmate per affrontare quel tipo di costrutti in quel determinato linguaggio.
Il primo lavoro che ora è generalmente riconosciuto come IA fu svolto da Warren McColluch e Walter Pitts (1943).
Si basarono su tre fonti: la conoscenza sulla funzione dei neuroni nel cervello umano; l'analisi formale della logica proposizionale; e la teoria della computazione di Turing.
Proposero un modello di neuroni artificiali in cui ogni neurone è caratterizzato come "acceso" o "spento", con un passaggio a "acceso" che avviene in risposta alla stimolazione di un numero sufficiente di neuroni adiacenti.
L’IA fu definita da John McCarthy, per la prima volta, nel 1956 come “la scienza e l’ingegneria di costruire macchine intelligenti”.
Più o meno nello stesso periodo, Alan Turing, nel suo articolo “Computing Machinery and Intelligence” (1950), proponeva un test per capire se un computer fosse in grado di emulare così bene il comportamento umano da diventare indistinguibile da una persona vera.
Spiegazione del Test di Turing: https://www.how2shout.com/what-is/what-is-turing-test-and-it-used-for.html.
Un esempio di AI del periodo: ELIZA.
I primi sistemi di AI si rivelarono un fallimento quando furono messi alla prova su una gamma più ampia di problemi più difficili.
Il primo tipo di difficoltà emerse perché la maggior parte dei primi programmi funzionava solo seguendo un insieme di istruzioni fisse per arrivare a una conclusione.
Un esempio astratto:

Il secondo tipo di difficoltà fu l'irrisolvibilità di molti dei problemi che l'IA stava cercando di risolvere (es. il Problema del Commesso Viaggiatore).
Quindi, questi primi metodi di risoluzione dei problemi erano meccanismi che cercavano di mettere insieme passaggi elementari di ragionamento per trovare soluzioni complete.
Tali approcci sono stati chiamati deboli perché, sebbene generali, non erano in grado di scalare per affrontare istanze di problemi più grandi o difficili.
L’alternativa ai metodi deboli è stata quella di utilizzare conoscenze più potenti e specifiche per il dominio specifico relativo al problema da affrontare, che permettano passaggi di ragionamento più ampi e possano gestire più facilmente i casi tipicamente ricorrenti in aree di competenza ristrette.
Questi tipi di sistemi sono anche chiamati sistemi esperti.
Questi sistemi funzionano in due parti principali:
L’industria dell’IA esplose da pochi milioni di dollari nel 1980 a miliardi di dollari nel 1988, includendo centinaia di aziende che costruivano sistemi esperti, sistemi di visione, robot e software e hardware specializzati per questi scopi.
Poco dopo arrivò un periodo chiamato “inverno dell’IA”, in cui molte aziende fallirono, poiché non riuscirono a mantenere le promesse fatte.
Motivi:
Questi metodi hanno la capacità di apprendere dall’esperienza.
Possono confrontare il valore di output previsto con il valore reale rispetto ad un problema e modificare i loro parametri per ridurre la differenza (e quindi l’errore), rendendoli più propensi a performare bene su esempi futuri.
La fragilità dei sistemi esperti portò a un nuovo approccio, più scientifico, che incorporava la probabilità anziché l’inferenza logica, e l’apprendimento automatico anziché la programmazione manuale di basi di conoscenza.
Nel corso della storia di 60 anni dell’informatica, l’enfasi è sempre stata sull’algoritmo come principale oggetto di studio.
Alcuni lavori recenti nell’IA suggeriscono che, per molti problemi, ha più senso preoccuparsi dei dati e essere meno selettivi riguardo all’algoritmo da applicare.
Uno studio influente in questa direzione è stato il lavoro di Yarowsky sulla disambiguazione del senso delle parole: dato l’uso della parola "plant" in una frase, ci si riferisce a una pianta o a un impianto industriale?
"plant: flora" e "plant: impianto industriale").Il deep learning si riferisce all'apprendimento automatico che utilizza più livelli di elementi computazionali semplici e regolabili.
Esperimenti con tali reti furono condotti già negli anni '70 e '90. Tuttavia, fu solo nel 2011 che i metodi di deep learning decollarono veramente. Questo avvenne inizialmente nel riconoscimento vocale e poi nel riconoscimento visivo di oggetti.
Nel 2012, in una competizione per classificare le immagini in una delle mille categorie (armadillo, libreria, cavatappi, ecc.), un sistema di deep learning creato da Geoffrey Hinton dimostrò un miglioramento drammatico rispetto ai sistemi precedenti, che si basavano in gran parte su caratteristiche realizzate a mano.
Il deep learning dipende da hardware molto potente e dalla disponibilità di grandi quantità di dati di addestramento.
La Stanford University riunisce panel di esperti per fornire report sullo stato dell’arte nell’IA, e produce anche un AI Index su aiindex.org per monitorare i progressi.
Le ultime tendenze: https://aiindex.stanford.edu/report/#individual-chapters.