Ricorda così tanto Asimov che è spaventoso.

Immagina un mondo in cui robot e assistenti personali artificialmente intelligenti siano parte integrante del nostro ambiente di lavoro (beh, forse ci siamo già), ma come possiamo garantire che questi assistenti digitali e meccanici non diventino minacce?

Il laboratorio DeepMind di Google ha compiuto un passo piuttosto drammatico ma anche rilevante presentando la sua Costituzione Robot, una serie di regole chiaramente ispirate alle famose Leggi della Robotica di Isaac Asimov.

Questi standard vogliono servire come guida deontologica per gli sviluppatori di applicazioni di intelligenza artificiale e includerla anche nei database di questi assistenti virtuali in modo che la interiorizzino completamente. In questo modo si cerca non solo di migliorare la sicurezza nell’interazione uomo-robot, ma anche di aprire nuove possibilità nello sviluppo dell’intelligenza artificiale.

Isaac Asimov e le leggi della robotica

Vediamo l’origine di tutto questo. Nel 1942, Isaac Asimov presentò al mondo le Tre Leggi della Robotica, una serie di linee guida intese a garantire che i robot non danneggino mai gli esseri umani. Queste leggi, che hanno perdurato nella cultura popolare e scientifica, possono essere così riassunte:

  • Un robot non può danneggiare un essere umano né, attraverso l’inazione, permettere che un essere umano venga danneggiato.
  • Un robot deve obbedire agli ordini impartiti dagli esseri umani, tranne quando tali ordini sono in conflitto con la Prima Legge.
  • Un robot deve proteggere la propria esistenza nella misura in cui questa protezione non contrasta con la Prima o la Seconda Legge.

DeepMind ha preso questa eredità e l’ha modernizzata per il contesto, creando un quadro che combina l’etica di Asimov con la nuova realtà dell’intelligenza artificiale.

La nuova “Costituzione robotica”

DeepMind ha sviluppato una “Costituzione del robot” che funziona come una serie di istruzioni di sicurezza, programmate per garantire che i robot non scelgano compiti pericolosi. Questo sistema utilizza modelli di linguaggio visivo (VLM) e modelli di linguaggio su larga scala (LLM) che collaborano per comprendere l’ambiente, adattarsi a nuove situazioni e decidere compiti appropriati.

In un recente test, i robot dotati del sistema AutoRT di DeepMind hanno dimostrato la loro capacità di operare negli ambienti d’ufficio senza incidenti. Questi robot non sono solo autonomi; Possono essere controllati da remoto o seguire script predefiniti, garantendo che agiscano sempre in modo sicuro ed efficiente.

Oltre alla sua “Costituzione robotica”, DeepMind ha introdotto altre tecnologie come SARA-RT e RT-Trajectory. SARA-RT migliora la precisione e la velocità del modello Robotic Transformer RT-2, mentre RT-Trajectory consente ai robot di eseguire compiti fisici specifici, come pulire un tavolo, in modo più efficace.

Un aspetto cruciale di questi sviluppi è l’inclusione di una soglia di forza nelle articolazioni dei robot, che li arresta automaticamente se viene superata una determinata pressione. È stato inoltre incorporato un interruttore di spegnimento manuale in modo che gli operatori umani possano disattivare i robot in caso di emergenza.

Esperimenti nel mondo reale

Google ha implementato 53 robot AutoRT in quattro diversi edifici per uffici nell’arco di sette mesi, accumulando oltre 77.000 prove. Questi esperimenti hanno dimostrato che i robot possono integrarsi negli ambienti umani senza causare problemi, il che testimonia l’efficacia del sistema di sicurezza che hanno implementato, secondo i loro risultati.




 
For Latest Updates Follow us on Google News
 

-

PREV Questa batteria esterna da 10.000 mAh con MagSafe è in offerta
NEXT Intel torna alle origini, nel 2025 avremo processori solo con P-Core