Com hem de programar les màquines intel·ligents?

1 oct. 19 | La Notícia de la Setmana

“Els robots que poden decidir matar-nos arriben sense lleis que els regulin”. Amb aquest títol sorprenent i inquietant es va publicar la setmana passada a La Vanguàrdia un article per conscienciar sobre el ràpid progrés de la robòtica i la intel·ligència artificial que, combinades, creen les màquines intel·ligents; és a dir, màquines que han de prendre decisions per elles mateixes, unes decisions que tenen conseqüències. Amb quines finalitats es faran servir, aquests robots? Sempre seran pacífiques?

Si ets tutora o tutor o professor d’educació en valors…

Et proposem treballar els problemes de caire ètic associats a les màquines intel·ligents, com per exemple els robots d’ús militar o els cotxes autònoms.

1 Llegiu l’article que comentàvem a l’inici de la notícia:

Ara, busqueu informació sobre els robots construïts per a ús militar que ja es comercialitzen. Intenteu respondre aquestes qüestions:

  • Quina diferència hi ha entre un dron i un robot militar?
  • Qui pren les decisions sobre la seva actuació?

Nota per al docent:

El dron és una màquina operada a distància per una persona, o un grup de persones, que és qui acaba prenent les decisions sobre què ha de fer.

El robot militar intel·ligent, en canvi, pren les decisions conforme la programació que se li ha proporcionat, sense supervisió directa humana. Per exemple, decideix si una persona és un soldat enemic o un civil.

  • Quins conflictes creus que pot ocasionar la capacitat d’aprenentatge que proporciona la intel·ligència artificial a aquests robots?

2 Reflexioneu sobre les dificultats que hi ha per definir quines decisions ha de prendre un cotxe autònom (sense conductor) en risc d’accident.

Encara que no ho sembli, els cotxes autònoms també es poden considerar màquines intel·ligents perquè controlant la conducció d’un vehicle es trobaran en situacions en què hauran de decidir quin és el mal menor entre dos efectes indesitjables.

Examineu aquestes dues situacions hipotètiques i decidiu com hauria d’actuar el cotxe autònom en cada cas:

a) Una persona baixa inesperadament a la via i s’interposa en la trajectòria del cotxe sense donar-li temps a frenar. Què ha de fer?

  • Continuar i atropellar aquesta persona.
  • Desviar-se de la ruta i xocar contra un obstacle posant en risc la vida dels passatgers.

b) Una persona madura i una altra de molt jove travessen la via inesperadament. És inevitable atropellar-ne una o l’altra.

  • Qui hauria de ser el perjudicat?

Nota per al docent:

Deixeu que els alumnes discuteixin i introduïu reflexions que obliguin a replantejar-se les seves decisions.

Per exemple:

  • Si han triat que el cotxe autònom atropelli la persona adulta, han pensat que podria ser un cirurgià que salva vides cada dia?
  • Si han triat que el cotxe autònom atropelli la persona jove, han pensat que podria ser, de gran, una persona que trobi la clau per curar algun tipus de càncer?

Atenció! Valoreu la idoneïtat de l’aplicació de l’activitat següent abans d’utilitzar-la amb els vostres alumnes.

3 Trobareu més situacions com aquestes en el web sobre “màquina moral que us proporcionem. Compareu les vostres respostes amb la mitjana dels altres usuaris de l’aplicació.