ROBOTS Y LEGALES
ROBOTS NECESITAN DERECHOS Y UN INTERRUPTOR, ADVIERTEN
LOS POLÍTICOS (Partes de un artículo por Steve Ranger | Ene.
13, 2017 Tópico: CES 2017: The
Big Trends for Business, ZDNet Innovation Weekly ) (English vewrsion below: ROBOTS NEED RIGHTS, AND KILL SWITCHES TOO, WARN POLITICIANS)
A los robots se les puede otorgar el status de “persona electronica”, dice
un informe, lo que implica que se necesita urgentemente un marco legal para
robots y automóviles autónomos.
Image: Robot El País
Este muy interesante artículo menciona que “la Unión Europea necesita
un conjunto de normas éticas, de
seguridad y cobertura de daños para resolver casos resultantes del uso de robots.
El Comité de Asuntos Legales del Parlamento Europeo (The
European Parliament’s legal affairs committee (*)) está previendo
que los robots gananen el status legal de “personas electrónicas”.
El artículo aparecido en ZDNet menciona que según los MEPS
(Parlamentarios Europeos) “Se necesitan regulaciones vigente en toda la UE para
poder explotar el potencial económico de la robótica. La UE necesita una nueva
agencia europea para la robótica y un código
de conducta ética para establecer quién
será responsable por los impactos
sociales, ambientales y de salud humana de la robótica y asegurar que
operan de acuerdo con los estándres
legales, de seguridad y éticos”. El
artículo añade que, entre otras cosas, “el código debería incluir una
recomendación de que los diseñadores prevean interruptores ("kill" switches), de manera que los robots
puedan ser interrumpidos en caso de emergencias”.
La robótica también implica cuestiones legales
sobre seguros contra daños causados por los robots, especialmente en el caso de
“automóviles autónomos” y otros elementos más sofisticados de robótica..
Según el artículo de ZDNet, el informe subraya
que “si bien los robots están participando cada vez más en nuestra vida diaria –
ya existen unos 1,7 millones de robots en el mundo – su uso todavía no está
adecuadamente reglamentado. Los robots capaces de autoaprendizage, dice el
informe de Mady Delvaux, sugieren la posibilidad de dar a los robots una “personalidad
electrónica” (e-personality) semejante a una” personalidad corporativa”, es
decir, el estatus legal que permite a las empresas enjuiciar y ser enjuiciadas”.
Con los robots también hay implicados aspectos
emocionales; el informe dice que los robots no deberían hacer que la gente sea dependiente
de ellos. “Se puede ser dependiente de ellos para tareas físicas, pero no se
debería pensar que el robot te ama o siente tu tristeza”, dice Delvaux.
Y, aún más complejo, “también existen
implicancias derivadas del posible uso de la inteligencia artificial en la guerra”.
El artículo del ZDNet menciona la existencia de un conjunto de tres
leyes para los robots formuladas por Asimov :(Asimov's three laws), las
que establecen que:
1. Un robot no debe dañar a un ser humano o, por su inacción,
permitir que un ser humano resulte dañado.
2. Un robot debe obedecer las órdenes que le dan los seres humanos, excepto cuando esas
órdenes entran en conflicto con la Primera Ley.
3. Un robot debe proteger su propia existencia siempre que esa
protección no entre en conflicto con la Primera o la Segunda Ley.
(*) http://www.europarl.europa.eu/committees/es/juri/home.html
; Working Group on Robotics and Artificial
Intelligence: http://www.europarl.europa.eu/committees/en/juri/subject-files.html;jsessionid=BC99F48A4A420741A24E04FD184C34C6.node2?id=20150504CDT00301
Artículo original de ZDNet (en Inglés): http://www.zdnet.com/article/robots-need-rights-and-kill-switches-too-warn-politicians/?loc=newsletter_large_thumb_related&ftag=TRE6a12a91&bhid=24443660012916189348032043164924
--------------------------------------------------------------
ROBOTS NEED RIGHTS, AND KILL
SWITCHES TOO, WARN POLITICIANS (Excerpts from an article By Steve Ranger | January 13, 2017 Topic: CES 2017: The Big Trends for Business, ZDNet Innovation Weekly )
Robots could be given 'electronic person' status, says
report, which argues a legal framework is urgently needed for robots and
self-driving cars.
This most interesting article mentions
that “the European Union needs to set rules for the use of robots, to settle
issues around ethics, safety and
security”, The European
Parliament’s legal affairs committee (*) has pointed out that we could see robots gain a legal status as
'electronic persons'.
The ZDNet’s article mentions that according to the MEPs “EU-wide rules are
needed to exploit the economic potential of robotics. The EU needs a
new European agency for robotics and a code
of ethical conduct to regulate who would be accountable for the social,
environmental and human health impacts of robotics and ensure that they operate
in accordance with legal, safety and ethical standards”. The article
adds that among other things,” the code should recommend that robot designers
include "kill" switches, so that robots can be turned off in
emergencies”.
Robotics also implies
legal matters about insurance against damages caused by robotics, especially in
the case of self driving cars and more sophisticated autonomous robotics.
According to the ZDNet
article, the report argues that “while robots are increasingly becoming a part
of everyday life -- some 1.7 million robots already exist worldwide -- their
use is still not properly regulated. Self-learning robots, said report
author Mady Delvaux, suggests the possibility of giving robots a limited
"e-personality" something like a "corporate personality", a
legal status which enables firms to sue or be sued”.
With robotics there are
emotional aspects too; the report says that robots should not make people
emotionally dependent on them. “You can be dependent on them for physical
tasks, but you should never think that a robot loves you or feels your sadness",
Delvaux said.
And, still more
intriguing: “ there are also implications derived from the possible use of
artificial intelligence in war”.
The ZDNet article mentions that a set of
laws for robots has already been formulated: Asimov's three laws, which state:
1. A robot may not injure a human being
or, through inaction, allow a human being to come to harm.
2. A robot must obey the orders given to
it by human beings, except where such orders would conflict with the First Law.
3. A robot must protect its own
existence as long as such protection does not conflict with the First or Second
Law.
Comentarios
Publicar un comentario