“Google premia i siti web che negano l’Olocausto”: e Mountain View risponde cambiando l’algoritmo

Può un algoritmo decidere in autonomia cosa è vero e cosa non lo è?
google

La lotta alle bufale in Rete comincia a produrre qualche risultato concreto, se non nella pratica, almeno nelle dichiarazioni degli over-the-top. Facebook ha di recente annunciato l’implementazione di misure ad hoc per ostacolare la viralità delle notizie false: nuove modalità di segnalazione da parte degli utenti e un team specifico di giornalisti e fact-checker, che verifichino in tempo reale le segnalazioni degli utenti.

Anche Google, a quanto pare, ha preso di mira le notizie false. I vertici di Mountain View sono stati costretti ad agire sulla base di alcune accuse molto gravi avanzate dal giornale britannico The Guardian.

I negazionisti dell’Olocausto

Come abbiamo scritto anche qui, il quotidiano inglese aveva effettuato una serie di test sull’algoritmo di Google. Inserendo delle query di ricerca specifiche, la giornalista Carole Cadwalladr aveva individuato una “predilezione” dell’algoritmo verso siti web contenenti informazioni palesemente false e propagandistiche.

Era il caso per esempio dell’Olocausto, lo sterminio sistematico degli ebrei, attuato dal regime nazista prima e durante la Seconda Guerra Mondiale.

Digitando sul motore di ricerca le parole “did the hol…”, nel riempimento automatico suggerito da Google, comparivano delle frasi che mettono in dubbio la storicità del genocidio: “did the holocaust happen”, “l’olocausto è avvenuto?”, si legge.

E al primo posto nei risultati di ricerca compariva un link a stormfront.org, un sito che farebbe parte della galassia neo-Nazi americana, con un titolo che lascia poco spazio all’immaginazione: “10 ragioni principali per cui l’Olocausto non è avvenuto”.

Successivamente, il quotidiano britannico aveva effettuato ulteriori test su argomenti scottanti, come la veridicità del cambiamento climatico, ottenendo risultati simili.

In una prima fase, sollecitata sull’argomento, Google aveva negato le proprie responsabilità, dichiarando: «Noi non rimuoviamo i contenuti dai nostri risultati di ricerca, eccetto in caso molto limitati: contenuti illegali, malware e violazioni delle linee guida per i web master».

La modifica dell’algoritmo

Considerata la pressione internazionale che l’opinione pubblica e la stampa (anche online) hanno esercitato sui vertici di Mountain View, l’azienda ha deciso di fare un passo indietro.

«Si tratta di una questione estremamente difficile da affrontare. Stiamo ragionando in maniera approfondita su cosa possiamo fare per migliorare il nostro lavoro», ha dichiarato un portavoce di Google. «La Ricerca è un riflesso dei contenuti che esistono sul web. Il fatto che siti che diffondono odio appaiano nei risultati di ricerca, non vuol dire assolutamente che Google appoggi le tesi esposte in quei link».

E in una nota, i vertici dell’azienda hanno annunciato un cambiamento dell’algoritmo per impedire a contenuti simili a quelli proposti da Stormfront di comparire ai primi posti della ricerca:

«Google è stato creato per fornire alle persone risultati autorevoli e di elevata qualità», si legge. «Giudicare quali pagine rispondono meglio alle query di ricerca è un problema difficile da affrontare e non sempre ci riusciamo al meglio. Quando delle informazioni poco autorevoli sono troppo in alto nei risultati delle nostre ricerche, noi sviluppiamo una soluzione generale e automatizzata, invece di rimuovere i link uno per uno. Di recente abbiamo applicato dei miglioramenti all’algoritmo che aiuterà i contenuti credibili e di elevata qualità a emergere».

Basterà? Secondo la BBC, al 20 dicembre, i risultati discussi erano stati rimossi dalla pagina delle ricerche negli Stati Uniti, ma Stormfront restava alle prime posizioni nella versione di Google del Regno Unito.

Al di là del singolo caso – estremamente grave – la questione dell’intervento dei maggiori player del web sulla veridicità delle informazioni che veicolano resta dirimente. Google è un semplice contenitore e quindi non ha responsabilità sul contenuto dei link che compaiono tra le sue ricerche? Oppure l’azienda dovrebbe fare di più per intervenire sul problema delle notizie false? E nella seconda ipotesi: può un algoritmo decidere in autonomia cosa è vero e cosa non lo è?

Foto: Tobias Haase

Categorie
Focus
Nessun commento

Lascia un commento

*

*

Articoli collegati

Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso consulta la cookie policy. Chiudendo questo banner, scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all’uso dei cookie.

The cookie settings on this website are set to "allow cookies" to give you the best browsing experience possible. If you continue to use this website without changing your cookie settings or you click "Accept" below then you are consenting to this.

Close