Opinión | Cifras e letras

Director CiTIUS-Centro Singular de Investigación en Tecnoloxías Intelixentes da USC

Outras leis da robótica (II)

Para que os robots sexan útiles hai unha condición necesaria, aínda que non suficiente. Que queiramos usalos. Non é un tema menor. Non fai moito The Washington Post facíase eco de que moitas persoas usuarias de taxis autónomos de San Francisco, sobre todo mulleres, séntense inseguras por posibles acosos ou roubos ao non ir un condutor ao volante. Os coches autónomos son robots moi sofisticados e potencialmente moi útiles e seguros, pero se o seu uso é percibido como inseguro, aínda que sexa por razóns alleas ao seu deseño e operación como robots, as compañías que venden os seus servizos terán un serio problema. Son moitos os exemplos de desconfianza ou incomodidade diante dos robots. Robots aspiradora que causan receo pola sospeita de que poidan estar a captar datos da nosa casa, e non para facer mellor a súa tarefa de aspirar senón para envialos ao fabricante con non se sabe que obxectivos; ou robots de entrega a domicilio de paquetes ou comida, que non tiveron aínda a aceptación que se presumía cando comezaron a comercializarse.  

Fronte ás limitacións das leis da robótica de Asimov nun contexto real, das que lles falei a semana pasada, xorde a necesidade de dispoñer de regras orientadas a cuestións menos sublimes, pero máis útiles. Por exemplo, para facer que confiemos máis nos robots e realmente os usemos. Sen pretender emular a Asimov, vou propoñer catro principios que creo útiles para construír robots aceptables por nós:  

  Un robot debe ter a complexidade necesaria para o que ten que facer, pero non máis.  

Complicar sen sentido o deseño dun robot supón incrementos de custo e unha maior propensión a fallos de funcionamento e a cometer erros. Trátase de axustar a tecnoloxía ás necesidades, sen caer na tentación de facer alardes tecnolóxicos. 

  Un robot debe ter unha aparencia que non xere expectativas maiores que as que vai cumprir.  

O uso de robots humanoides para segundo que usos pode inducir a malentendidos sobre as súas capacidades reais. Por exemplo, se un robot vese “demasiado humano”, o usuario pode supoñer que comprende todo aquilo que se lle di e que é capaz, ademais, de percibir emocións. Dito doutro xeito, non necesitamos un robot humanoide para facer as consultas e as operacións bancarias ordinarias, bástanos cun caixeiro automático.  

  Un robot debe estar fora do “val inquietante”.  

O “val inquietante” é un concepto proposto por Masahiro Mori en 1970. Mori é un experto en robótica que denominou así a situacións nas que robots demasiado parecidos a nós, os seres humanos, poderían causarnos incomodidade e ata rexeitamento. O parecido pode ser na súa aparencia e/o no seu comportamento.  

Un robot non debe aparentar ser o que non é, nin que é capaz de facer o que non pode facer.  

O Regulamento europeo sobre intelixencia artificial establece obrigacións de transparencia para certos sistemas de IA. En particular, requírese que os usuarios sexan informados cando interactúan cunha intelixencia artificial. Esta obrigación aplícase a sistemas como chatbots e asistentes virtuais, onde é esencial que as persoas saiban que están a interactuar cunha máquina e non cun ser humano. En todo caso, que non tenten facerse pasar por humanos non garante que confiemos neles. Un asistente virtual que “finxa” entender chistes ou empatizar connosco pode igualmente crebar a nosa confianza nel. É verdade que hai persoas moi rebiradas, que nos defraudan nada máis coñecelas, que buscan caer ben dun modo impostado ou que aparentan ser o que non son ou saber o que non saben, pero no mundo do artificial non estamos obrigados a copiar as nosas miserias.

Tracking Pixel Contents
pFad - Phonifier reborn

Pfad - The Proxy pFad of © 2024 Garber Painting. All rights reserved.

Note: This service is not intended for secure transactions such as banking, social media, email, or purchasing. Use at your own risk. We assume no liability whatsoever for broken pages.


Alternative Proxies:

Alternative Proxy

pFad Proxy

pFad v3 Proxy

pFad v4 Proxy