FOSSBYTES TECH SIMPLIFIED LOGO

WStiamo lentamente entrando nell’era delle auto a guida autonoma. Molte aziende come Tesla, Google e Uber stanno raggiungendo traguardi per portarci più vicini al giorno in cui ci sederemo e ci rilasseremo mentre i sistemi intelligenti guideranno automaticamente le nostre auto. Tuttavia, il fattore di rischio è ancora coinvolto ei recenti incidenti con auto a guida autonoma sono indicativi del fatto che siamo ancora molto lontani da quel giorno.

Mentre affrontare gli ostacoli e prendere decisioni immediate rimangono i problemi principali, i ricercatori hanno riscontrato un problema con le auto a guida autonoma: uno scarso rilevamento di pedoni con la pelle scura.

UN ricerca condotto dal Georgia Institute of Technology ha concluso che i sistemi a guida autonoma lo sono cinque per cento meno preciso per rilevare i pedoni dalla pelle scura.

I ricercatori hanno iniziato analizzando l’accuratezza del processo decisionale dei modelli di rilevamento degli oggetti all’avanguardia, prendendo in considerazione il modo in cui tali sistemi rilevano persone di diversi gruppi demografici.

Il set di dati conteneva immagini di pedoni e quindi le ha ulteriormente suddivise in immagini con pedoni con diverse tonalità della pelle. Questo viene fatto utilizzando la scala Fitzpatrick, che classifica gli esseri umani in base ai toni della pelle umana che vanno dal chiaro allo scuro.

Il sistema ha mostrato un processo decisionale parziale anche quando nello studio sono state incluse variabili diverse come l’ora del giorno nelle immagini e l’ostruzione occasionale dei pedoni.

Uno dei motivi alla base del sistema di guida autonoma “razzista” è bias algoritmico. Il bias algoritmico nasce a causa del comportamento parziale degli esseri umani che poi si insinua nei sistemi. Il sistema informatico imita il comportamento dei suoi progettisti che influisce sulle sue capacità decisionali.

Lo studio rivela un pregiudizio algoritmico nei confronti delle persone dalla pelle scura, ma è importante sapere che il file la ricerca non è stata sottoposta a peer review e non utilizza l’effettivo modello di rilevamento degli oggetti utilizzato dalla maggior parte dei produttori di veicoli autonomi. Lo studio si basa su set di dati disponibili pubblicamente utilizzati da ricercatori accademici. Le aziende non rendono disponibili i dati effettivi, il che è un problema in sé.

Tuttavia, i rischi scoperti dallo studio sono reali ed è giunto il momento che le aziende intraprendano alcuni passi concreti per eliminare comportamenti di parte dei sistemi informatici per renderli più sicuri per tutti.

Leggi anche: Mahindra lancia la Hypercar elettrica Battista: fa 0-100 km/h in 2 secondi

This post is also available in: Tedesco Vietnamita Italiano Indonesiano

LEAVE A REPLY

Please enter your comment!
Please enter your name here