Category Archives: intel·ligència artificial

Biometría: nuestro rostro digital

La tecnología biométrica ha dejado de ser un fenómeno propio de las historias de ciencia ficción. Los gobiernos de algunos países llevan tiempo utilizándola para reconocer a sus ciudadanos, algo que plantea nuevos retos éticos y que ya ha llegado a casos extremos, por ejemplo, en China.

Aunque la palabra “biometría” puede resultar desconocida para el público general, su aplicación está, desde hace tiempo, más que presente en nuestras vidas. Consiste en identificar a las personas a través de una característica física exclusiva: primero fueron las huellas dactilares y, más recientemente, el iris, o el rostro.

China ha instalado 170 millones de cámaras con capacidad de reconocimiento facial que registran los movimientos de las personas

Si cada vez es más fácil acceder a la información personal de casi todo el mundo y gran parte de las transacciones se realizan de manera virtual, entonces la necesidad de identificar bien a las personas resulta acuciante. Aunque las empresas tecnológicas también utilizan este sistema para, por ejemplo, etiquetar personas en una red social o desbloquear un dispositivo móvil, el mayor reto se presenta para dos agentes diferentes: gobiernos e instituciones financieras.

Me he quedado con tu cara

Hasta hace poco, para hacer una transferencia o aceptar el borrador de la Declaración de la Renta, bastaba con introducir un número de identificación personal y, como mucho, confirmar nuestra identidad a través de un correo electrónico o un SMS. Sin embargo, en muchos países, este tipo de gestiones se hacen ya simplemente apoyando el dedo en un lector de huellas o dejando que una máquina escanee el rostro del interesado.

Según los expertos, la identificación biométrica reduce al mínimo la posibilidad de fraude, porque los datos que se usan son prácticamente imposibles de suplantar en caso de que la persona no esté presente.

Y, entre todas las modalidades disponibles, el reconocimiento facial se presenta como la más efectiva, ya que las huellas dactilares son más inexactas y pueden variar ligeramente, por ejemplo, en el caso de una persona que tenga un trabajo artesanal. En cambio, los programas que realizan escáner facial ofrecen una precisión cada vez mayor incluso si el usuario cambia su aspecto, por ejemplo, con una barba o unas gafas.

Además, desde un punto de vista práctico, para los usuarios resulta mucho más fácil dejarse fotografiar por un escáner o pulsar un botón para todas sus gestiones que recordar una gran cantidad de nombres de usuario y contraseñas.

Australia, India y China son algunos de los gobiernos a la vanguardia de este tema.

Mil millones de indios fichados

El gobierno de India posee el mayor programa de identificación biométrica del mundo, Aadhaar. Su sistema sirve tanto para trámites públicos, como para abrir una cuenta en el banco o dar de alta una línea telefónica. Una llave similar al “iniciar sesión con Facebook”, pero con datos más comprometidos y capaz de abrir puertas oficiales.

En Aadhaar, cada ciudadano tiene un número de identificación que contiene sus datos personales y biométricos (huella dactilar, iris…). Aunque es voluntario inscribirse, la realidad es que resulta prácticamente necesario para acceder a los servicios esenciales.

Como puede usarse para realizar gestiones de todo tipo, su base de datos es muy completa y son muchos los que consideran que amenaza la privacidad de los ciudadanos, ya que el gobierno puede saber de manera casi instantánea lo que hacen en su vida pública y privada.

Ahora mismo, el sistema almacena los datos del 90% de los ciudadanos indios, unos 1.110 millones de personas, lo que lo convierte en uno de los grandes objetivos para los piratas informáticos. En volumen compite con las grandes tecnológicas, cuyas bases de datos tampoco resultan nada desdeñables: 2.000 millones de usuarios en el caso de Android y 1.000 millones en el de Apple.

El Estado indio tiene almacenados los datos biométricos de 1.100 millones de personas

También estas últimas están adoptando la biometría: hace tiempo que los dispositivos se desbloquean con la huella dactilar o con la lectura del iris; y el último iPhone X permite ya hacer pagos con su sistema de reconocimiento facial, Face ID.

Pero las exigencias de seguridad que plantean las bases de datos biométricos son demasiado grandes y, por eso, nadie se arriesga a dar pasos sin tener todo bajo control. De hecho, ni Google ni Apple han instalado todavía el escáner compatible con Aadhaar en sus teléfonos indios.

Proyecto australiano

A día de hoy, Australia es el país occidental más convencido de la necesidad de incorporar tecnología biométrica a los sistemas de identificación pública. El Gobierno Federal ya cuenta con una base de datos faciales del 85% de los australianos y, en 2018, tiene previsto aprobar una ley para que también las empresas privadas incluyan en sus bases de datos el reconocimiento facial. Si sale adelante, Australia pondría en marcha el sistema FVS (Face Verification Service) por el que las compañías que obtengan los datos faciales de un cliente podrán enviarlos al gobierno para que éste los verifique. Algo similar se utiliza ya para verificar documentos oficiales (Documents Verification Service), como carnets de conducir, pasaportes, tarjetas de inmigración…

Las razones para ponerlo en marcha son reducir el fraude y respaldar al sector financiero ayudando, además, a frenar el blanqueo de capitales, el terrorismo, etc. Al igual que en India, en principio no será obligatorio acogerse al FVS.

En Australia el gobierno tiene una base de datos faciales del 85% de los ciudadanos y planea aprobar una ley para que también las empresas privadas empleen el reconocimiento de rostros

En la futura ley se especifica que las empresas sólo podrán guardar esta información si cuentan con la autorización expresa del interesado. Sin embargo, es bastante probable que los australianos cedan sus datos con el mismo poco conocimiento con que la mayoría de los ciudadanos leemos las políticas de privacidad de todo lo que aceptamos en Internet.

Además, la normativa especifica que las empresas que quieran utilizar ese sistema deberán garantizar la privacidad de su base de datos, pero el reciente caso de pirateo masivo de Equifax, uno de los proveedores de este servicio aprobados por el gobierno australiano para el sistema de verificación de documentos, hace que la seguridad del proyecto esté, de momento, bastante cuestionada.

Los expertos alertan ya contra la falta de supervisión del FVS y se preguntan quién será el responsable de almacenar esos datos y con quién será legal compartirlos. Además, sus detractores se quejan de la poca transparencia que existe en las negociaciones del gobierno con estas compañías.

Gran Hermano en China

El sector financiero del gigante asiático es pionero en el uso de tecnología biométrica y millones de chinos utilizan ya diferentes sistemas de identificación facial para autorizar pagos. Pero no sólo eso. El caso de China plantea el mayor problema de las bases de datos masivos, que va más allá del riesgo de pirateo: el uso de esa información para controlar a los ciudadanos.

Desde hace años, el gobierno de Xi Jinping espía a sus ciudadanos con un proyecto que ha sido calificado en múltiples ocasiones de “orwelliano”, haciendo referencia al escenario descrito en la novela 1984. El sistema se apoya, sobre todo, en el reconocimiento facial y la inteligencia artificial para vigilar y predecir el comportamiento de las personas.

Para controlar a sus 1.300 millones de habitantes, el Estado chino cuenta con 170 millones de cámaras inteligentes que pueden reconocer un rostro, o descifrar la edad o la etnia de una persona y registrar todos sus movimientos: qué coche tiene, dónde va, con quién se ve habitualmente… En los próximos tres años se instalarán 400 millones de cámaras más.

El gobierno tiene una base de datos con 700 millones de rostros y la utiliza para cosas tan surrealistas como evitar que en los baños públicos las personas tomen más de 60 centímetros de papel higiénico en un período de nueve minutos, como explicaba recientemente The Economist.

“Crédito social”

Con todos esos datos el Estado creó, en 2012, el llamado “Sistema de Crédito Social”: una lista negra del tribunal superior de China con nombres de personas que considera “poco confiables”. El objetivo es que éstas tengan dificultades, más o menos serias, a la hora de acceder a los servicios públicos y privados –desde comprar online hasta conseguir un empleo o colegio para sus hijos–, para que una persona que comete fraude en un lugar no pueda volver a hacerlo en otro.

Algunos gobiernos locales colocan las fotos, nombres completos y direcciones de los incluidos en el sistema en vallas publicitarias, pero lo normal es que las autoridades no avisen a nadie si es incluido ni por qué; las personas se enteran, por ejemplo, cuando no pueden comprar un billete de avión. Los “no confiables” dejan de serlo cuando se retractan en aquello por lo que fueron inscritos en la lista; ahora bien, para eso, primero tienen que conseguir averiguarlo.

Contaba The Wall Street Journal que, sólo en 2017, siete millones de chinos han pasado por el Sistema de Crédito Social. Uno de ellos, por ejemplo, fue incluido por declarar en un juicio como testigo y que su testimonio fuera considerado por el tribunal como “insincero”. Hasta que no hizo pública una retractación pidiendo perdón no han retirado su nombre. En otro caso, un periodista acabó en la “lista negra” tras publicar una información sobre un supuesto extorsionador y no poder demostrar la veracidad de su artículo.

La tecnología que se usa para combatir un crimen cada vez más sofisticado

Lógicamente, se trata de un sistema que da lugar a múltiples abusos, para empezar, porque los afectados no tienen derecho a defenderse ni a un juicio justo. Pero, además, con este proyecto, el gobierno pretende no sólo evitar el crimen, también predecirlo.

Colaboración privada

La comunidad internacional ha criticado muchas veces a las empresas privadas que se pliegan a servir de cómplices al régimen de Pekín. Recientemente, han sido especialmente sonadas las protestas contra Apple, que tiene en China su tercer mercado más importante. La compañía retiró 674 aplicaciones de su appstore en ese país, a petición del gobierno, porque permiten a los usuarios saltarse el llamado “gran cortafuegos chino”. Tim Cook, CEO de Apple, declaró en su defensa que, aunque él como americano no está de acuerdo, “cada país tiene derecho a crear sus propias leyes”.

También las empresas nacionales colaboran de manera activa en el gran sistema de vigilancia, en muchos casos, cediendo sus datos al servicio del gobierno. Es el caso de Sesame Credit, un programa piloto del ala financiera de Alibaba (el Amazon chino, que ya es la plataforma de compra online más grande del mundo), seguido muy de cerca por el Estado.

Con este sistema, Alibaba califica el riesgo de las operaciones financieras en función de las compras de cada persona: “Alguien que juega videojuegos durante diez horas al día, por ejemplo, sería considerado una persona ociosa, y alguien que frecuentemente compra pañales probablemente será padre y, por lo tanto, considerado como alguien con sentido de la responsabilidad”, explicaba Li Yingyun, director de tecnología de Sesame, a la revista china Caixin, en 2015.

Los usuarios pueden conocer la puntuación que Alibaba les otorga. De momento no penaliza, pero sí que premia las puntuaciones altas con descuentos o acceso a ciertos servicios financieros.

En China no existe ningún tribunal que proteja la privacidad y, por lo tanto, los ciudadanos no tienen posibilidad de denunciar a nadie. Sin embargo, su situación actual es mirada con lupa por Occidente, como un modelo al que nunca deberíamos llegar.

El ‘blanqueo ético’ de la tecnología del futuro

Avanza la geopolítica de las éticas de la inteligencia artificial

La IA contribuye a la aparición de muchas preguntas de orden moral acerca su aceptabilidad y conveniencia”, señala Goffi. (Photo by DAVID MCNEW / AFP) AFP

La inteligencia artificial (IA) se ha convertido ya en materia de pleno derecho de las relaciones internacionales, un gran desafío para todos los agentes públicos y privados, e incluso un factor de poder que justifica una carrera por el liderazgo.

Sin embargo, es también objeto de numerosos debates que polarizan los sentimientos entre las esperanzas suscitadas por la nueva tecnología y los temores a los que da lugar. Por un lado, la IA es vista como una herramienta perfecta susceptible de ser usada en muchos ámbitos para mejorar nuestro bienestar, facilitarnos la vida y a veces incluso salvarla. Por otro, preocupa a quienes temen una toma de poder por parte de máquinas convertidas en autónomas y en capaces de tomar decisiones por sí mismas, en detrimento quizá de los humanos.

De hecho, como toda nueva tecnología, en ausencia de un marco jurídico adaptado, la IA contribuye a la aparición de muchas preguntas de orden moral acerca su aceptabilidad y conveniencia. Ahora bien, en un mundo globalizado en el que valores e intereses chocan y se desafían entre sí, puede parecer utópico encontrar unas coordenadas normativas comunes sobre las que edificar un marco preceptivo general. De hecho, mientras la IA crece de manera exponencial, los códigos de ética se multiplican y reflejan mucho más la diversidad axiológica existente que una homogeneidad de las perspectivas.

Así, en lugar de ver el establecimiento de un marco normativo moral que regule el desarrollo y la utilización de la IA, asistimos a la eclosión de un sistema caótico en el que cada agente mueve sus piezas valiéndose de una conducta ética tranquilizadora. Esa cosmética, una ética de puro aparato, cuando no de pura apariencia, cuyo único objetivo es realzar la imagen y, por lo tanto, el prestigio de quien se envuelve con ella, refleja una realidad negada por los defensores del universalismo de los valores. Por un lado, la moral es un constructo social intrínsecamente ligado a un sistema específico de valores. Por otro, las éticas que induce son múltiples y completamente contextuales. En semejante marco, la evaluación moral de la aceptabilidad y conveniencia de la IA sólo puede ser relativa, y todo intento de universalización, puede reducirse a un simple ejercicio de marketing.

La moral: un constructo social (???)

Las definiciones son importantes. No cabe duda de que pueden ser discutidas, pero resultan necesarias para construir un debate eficaz erigido sobre bases comunes. En nuestro caso, no hay consenso sobre las definiciones de moral y ética. Por lo tanto, toda discusión, toda evaluación, se vuelve subjetiva y parcial, por no decir arbitraria.

En materia de moral, las definiciones propuestas por Paul Ricœur resultan de interés por su claridad y su carácter operativo. Así, Ricœur propone dividir la cuestión de la moralidad en tres ámbitos:

1. La moral, en sentido estricto, entendida, por un lado, como “la región de las normas, es decir, de los principios de lo permitido y lo prohibido, y, por otro lado, el sentimiento de obligación en tanto que faceta subjetiva de la relación de un sujeto con las normas”.

2. La ética anterior que representa “el antes de las normas”, es decir, una “ética fundamental” cuyo objeto es la “vida buena”.

3. Por último, en el “después de las normas”, la ética posterior que engloba las éticas aplicadas, que Ricœur llama la “sabiduría práctica”.

En el caso que nos ocupa, el modelo de Ricœur nos permite distinguir la regla moral, mediante la cual la IA es evaluada como buena o mala, de la ética anterior que nos explica sobre qué fundamentos se erige la moral considerada y de la ética posterior que trata de la aplicación de las normas morales en los ámbitos de la IA. Nos permite también comprender que los comportamientos éticos sólo pueden ser juzgados con el rasero del marco moral en el que se insertan. Por último, al señalar que la ética fundamental tiene como finalidad la “vida buena”, Ricœur nos remite a las reflexiones de Aristóteles sobre la finalidad de una ética basada en unas virtudes “consistentes en lo esencial en un modo habitual de obrar bajo la dirección de la preferencia razonable” orientada a la felicidad, que el Estagirita considera como “lo más deseable de todo”, un “bien supremo” cuya fuente se encuentra en la “actividad conforme a la virtud”. En otras palabras, son las virtudes aprendidas socialmente las que definen la felicidad que debe alcanzarse y, por lo tanto, las normas morales que regirán el comportamiento. La moralidad remite, pues, a reglas particulares construidas socialmente y a las que se adhieren los miembros de la comunidad estudiada.

https://www.lavanguardia.com/internacional/vanguardia-dossier/revista/20210107/6131993/blanqueo-etico-tecnologia-futuro.html#foto-2

El Govern impulsa el projecte AINA per evitar l’extinció digital del català

10 de desembre de 2020

tecnologia intel·ligència artificial / Pixabay

Una nena que es deia Norma es va convertir l’any 1982 en la imatge de la campanya del Govern per la normalització del català. Gairebé 40 anys més tard, el català continua batallant per defensar-se però, a més, en terrenys cada cop més complexos i amb armes més sofisticades, entre les quals la intel·ligència artificial. Perquè la Norma pugui seguir dialogant també amb ordinadors i assistents virtuals com Siri o Alexa, el Govern ha impulsat el projecte AINA, per a la normalització digital del català.

Creat des del departament de Polítiques Digitals, el projecte AINA es proposa generar un corpus i models informàtics de la llengua catalana per proporcionar els recursos necessaris a les empreses que creen aplicacions basades en intel·ligència artificial com per exemple els assistents de veu, agents conversacionals o traductors automàtics.

Extinció digital

“L’objectiu del Govern és que la ciutadania pugui interactuar amb el món digital en català”, ha explicat el conseller de Polítiques Digitals, Jordi Puigneró, en la roda de premsa en què ha presentat el projecte.

Puigneró ha recordat que un estudi realitzat el 2011 per la xarxa europea d’excel·lència META-NET advertia que més de 20 llengües europees, entre les quals el català, s’enfronten a l’extinció digital si no reben més suport tecnològic en àrees com la traducció simultània, la interacció amb veu, l’anàlisi textual i la disponibilitat de recursos lingüístics. El conseller ha advertit que el català aconseguirà perviure si es pot utilitzar també amb normalitat en el nou context digital, com “una llengua útil i competitiva”.

Captura de pantalla 2020 12 10 a les 10.14.13
El conseller de Polítiques Digitals, Jordi Puigneró, en la roda de premsa de presentació del projecte AINA

Supercomputing Center
Amb un pressupost de 13,5 milions d’euros entre 2020 i 2024, que es preveu que siguin finançats amb fons europeus NextGenerationEU, el projecte arrenca amb una aportació inicial de 250.000 euros del departament de Polítiques Digitals que s’han assignat al Barcelona Supercomputing Center (BSC).

El BSC ja disposa d’un primer corpus textual del català, consistent en 1.770 milions de paraules, reunides en 95 milions de frases, a partir de descarregar textos de diferents fonts digitals, com per exemple la pàgina web del Govern o del DOGC, d’on s’ha extret el 33% dels continguts descarregats.

El superordinador MareNostrum ha hagut de dedicar 2.000 hores de processadors per revisar les dades, eliminar duplicitats i tot allò que no fossin continguts pròpiament en català. Aina incorporarà les varietats dialectals del català, els diferents registres lingüístics, i arxius de veu i imatge, on s’hi inclouran tot el repositoris documental de la Corporació Catalana de Mitjans Audiovisuals.

Intel·ligència artificial
Tot plegat ha de servir per desenvolupar les aplicacions basades en la intel·ligència artificial, com ara assistents de veu, xatbots, aplicacions de resum automàtic, cerques intel·ligents, aplicacions per a l’anàlisi de sentiments o motors de traducció i subtitulació automàtica, entre d’altres. Per fer-ho possible es crearan xarxes neuronals per aprendre el català i generar models de llengua, de parla i de traducció.

Tots els models que es creïn al Supercomunting Center estaran a disposició de totes aquelles empreses o entitats que les vulguin fer servir perquè, segons ha explicat el departament, es publicaran en obert i amb llicències permissives.

El nom d’AINA
Puigneró ha subratllat que el català no disposa d’un estat al darrere que el protegeixi i que gràcies a l’Aina és molt probable que es pugui sentir el català abans amb Alexa, l’assistent digital d’Amazon, que al Congrés del Diputats o al Tribunal Suprem.

El projecte AINA manté el fil amb la Norma de l’any 1982 creada per l’aleshores directora general de Política Lingüística, Aina Moll. D’aquí el seu nom, que a més, amaga les sigles AI, d’Intel·ligència Artificial.

https://www.elnacional.cat/ca/politica/projecte-aina-govern-intelligencia-artificial-catala-mon-digital_564432_102.html