El 54% de les persones enquestades van creure que GPT-4 era un ésser humà mitjançant el test de Turing
Les IA superen el test de Turing. Recentment, la versió GPT-4 de ChatGPT, ja ha superat el conegut com a test de Turing. És a dir, podia interpretar-se que era un humà en relacionar-s’hi. Per aconseguir aquesta fita, hi van participar 500 persones de les quals el 54% va creure que GPT-4 era humà en interactuar durant 5 minuts amb quatre agents: un humà i tres IA. Les informacions afirmaven que no es creia que ChatGPT pogués superar-ho afegint els riscos que comportava que les IA poguessin suplantar els humans no només en activitats laborals sinó també en interaccions humanes tant en aspectes positius i negatius com estafes o suplantació de personalitat, alguns fins i tot es preguntaven quant faltava perquè les IA adquirissin consciència pròpia.
En què consisteix el test de Turing?
D’aquesta manera, el fet significa que estem interactuant amb la intel·ligència artificial (IA) en línia no només més que mai, sinó més del que ens adonem, de manera que els investigadors van demanar a la gent que converses amb quatre agents, inclòs un humà i tres tipus diferents de models d’IA, per veure si podien dir-ho. La “prova de Turing”, proposada per primera vegada com “el joc d’imitació” pel científic informàtic Alan Turing l’any 1950, jutja si la capacitat d’una màquina per mostrar intel·ligència no es pot distingir d’una persona. Perquè una màquina superi la prova de Turing, ha de ser capaç de parlar amb algú i enganyar-lo perquè pensi que és humà. Els científics van decidir replicar aquesta prova demanant a 500 persones que parlessin amb quatre enquestats, inclòs un humà i el programa d’IA dels anys 60 ELIZA, així com GPT-3.5 i GPT-4, l’IA que impulsa ChatGPT. Les converses van durar cinc minuts, després dels quals els participants havien de dir si creien que parlaven amb un humà o amb una IA. En l’estudi, els científics van trobar que els participants consideraven que GPT-4 era humà el 54% del temps.
Diferències amb els humans
Però això ens porta a preguntar: superar el test de Turing significa que també ChatGPT supera o arriba a la intel·ligència humana? Segons l’enginyer i científic, Antoni Garrell, conclou que aquests dos aspectes no són el mateix: “Quan vaig llegir la notícia, vaig recordar que fa 10 anys, sense que se li prestés gaire atenció, un bot conversacional anomenat Eugene Goostman que simulava ser un nen de 13 anys, havia superat el Test de Turing en convèncer el 33% dels participants que era humà. Des de llavors, molts han estat els avenços de les IA per l’augment de la capacitat de procés dels ordinadors i els milers de milions invertits en desenvolupar les IA. Per això, la notícia no em va causar sorpresa ni em preocupo en excés, atenent que el test no avalua allò que entenem per intel·ligència humana, se centra en procés i memòria i en això les màquines ens guanyen, però la intel·ligència humana és molt més ja que incorpora també la capacitat empàtica, creativa o emocional”.
Per tot plegat, Garrell conclou que “les IA superen els humans en tasques que requereixen processament lògic, anàlisi de dades i presa de decisions objectives en base a informacions, en realitzar, gran velocitat, càlculs complexos i emmagatzemar i recuperar informacions. Però la intel·ligència humana és més que un procés racional i lògic. La nostra ment ens fa possible ser creatius sense basar-nos en patrons preexistents, per això podem generar idees originals, innovar i crear. Som intuïtius gràcies a experiències prèvies i emocions, comprenem i responem a les emocions i necessitats dels altres creant connexions socials significatives, a més ens adaptem a situacions noves i desconegudes ràpidament i tenim consciència i ètica que ens permet reflexionar sobre nosaltres mateixos i els nostres actes actuant èticament . Tot això molt lluny de les capacitats actuals de les IA”.
Albert Cortina, urbanista, autor d’‘Humanismo avanzado para una sociedad biotecnológica’
Barceloní. Casat. Tinc dos fills que viuran de ple la revolucio de la intelligencia artificial. Llicenciat en Dret i Arquitectura. Ens hem de capacitar socialment i èticament per a la societat biotecnològica. Aposto per l’humanisme avançat. Crec que la transcendència ens configura com a éssers humans.
El transhumanisme és ciència o ciència-ficció?
És el nou paradigma tecnològic que aspira a aplicar les biotecnologies per crear un nou ésser humà posthumà.
En què es tradueix?
A superar la condició humana biològica. Els transhumanistes profetitzen que el posthumà serà per a l’humà el que l’humà ha estat per a tots els altres éssers vius de la Terra.
És pretendre molt.
Aquesta ideologia neix en l’àmbit anglosaxó, optimista i neoliberal, l’epicentre del qual és la Universitat de la Singularitat a Silicon Valley. Els seus objectius són la superlongevitat, la superintel·ligència i el superbenestar.
Jugar a ser déus?
Sí, una part de l’elit global somia amb convertir-se en Homo Deus, per això cal processar quantitats immenses de dades molt més enllà de la capacitat del cervell humà hibridant-nos amb la intel·ligència artificial.
Però què hi ha de realitat?
És un objectiu. La superlongevitat, per exemple, una de les apostes de Life Company fundada per Google (2013), planteja reptes socials immensos. Haurem de controlar que no tot acabi al servei de l’economia. Hem de prendre moltes decisions ètiques.
Quines creu que són les més essencials?
El disseny biotecnològic dels nens que han de néixer. Podrem decidir si eliminem la depressió, el dolor, potenciem la creativitat, la bellesa i fins i tot les experiències místiques.
La resposta sembla òbvia.
Soc partidari de l’humanisme avançat i m’estimo més parlar de la millora de tota la humanitat que de castes tecnològiques.
Deixarem de parir?
Ja s’han fet créixer embrions humans dins d’una placa de Petri durant dues setmanes. L’experiment es va interrompre per una determinació ètica de la comunitat científica. Un desenvolupament fetal totalment artificial canviaria la nostra condició de mamífers.
La tecnologia és imparable.
I ambivalent. A la Xina estan estudiant quins són els factors que defineixen els superdotats per, com amb les llavors transgèniques, crear ments superdotades. Es tracta d’un rendiment productivista molt lluny d’una visió integral de l’ésser humà.
Biologia sintètica?
Sí, i alguns van a la recerca de la consciència artificial. Ja hi ha robots que prenen decisions com el cotxe no tripulat, i en algun moment els robots humanoides prendran decisions ètiques de pes i el tema anirà evolucionant.
Em sona a ciència-ficció.
S’està desenvolupant la comunicació entre robots, i no podem garantir que en cert moment aquells robots autònoms i intel·ligents no canviïn el codi. Ho faran per simple eficiència? Prendran consciència que ho poden fer, perquè se sabran diferents, superiors…?
La por als robots és un clàssic.
Ho deia Stephen Hawking, i Nick Bostrom, filòsof d’ Oxford que als seus inicis va defensar el transhumanisme, però que als seus últims treballs sobre l’emergència de la superintel·ligència va repensar el tema. Tots dos han valorat els riscos existencials; i el tema també és a l’ONU.
La capacitat de crear i de transformar-nos a nosaltres mateixos és humana.
Però ens pot portar a la deshumanització. En el projecte Avatar 2045, impulsat pel magnat rus Dmitri Itsko, plantegen la consciència com a algoritmes que poden encarnar-se en suports hologràfics o de silici.
Que el cos mori però que la ment continuï vivint en un altre suport?
Sí, és com una nova visió de la reencarnació, de fet el Dalai-lama ha donat el seu suport a aquest projecte.
On s’ha de posar el límit?
No hi ha una resposta clara. La cosmovisió de les diferents societats humanes (agnòstica, cristiana, islàmica, budista…) ha d’arribar a un consens sobre els límits morals i ètics respecte a aspectes que ens interpel·laran.
Quin és el seu angle?
Cal tenir en compte la dimensió espiritual de la persona, perquè fins ara la visió científica ha estat molt racional i emotiva.
Emotiva?
Creen robots que imiten els afectes, però està clar que l’ànsia de transcendència no podran imitar-la. Haurem de posar damunt la taula quina és la nostra visió espiritual i no només material de l’ésser humà. Quan hibridem éssers humans i màquines haurem d’establir què és un ésser humà i què no ho és.
No sé si ho sabrem; Sòcrates continua sent més savi que nosaltres.
Ben cert, les humanitats no estan a l’altura de les preguntes, però ens les haurem de plantejar, perquè si no ho resoldran el poder econòmic, militar i polítiques no democràtiques.
Té raó.
Els transhumanistes consideren que l’eficiència ha de ser el nostre nord, però els humans no som més humans per ser més eficients. Cal connectar el cervell amb el cor, és a dir, amb la interioritat.
Ens enamorarem d’un robot?
Abyss Creations, de l’empresari Matt McMullen, ven ninots tremendament realistes de dones i homes amb total disposició a satisfer sexualment qualsevol humà. La robotització de la intimitat ja ha començat.
Optimisme Pioner en la llei del paisatge a Catalunya, la seva visió optimista és que l’ésser humà canviant-se a si mateix podrà fer un gir a la degradació ambiental. Cortina, que defensa el desenvolupament integral de la persona, va encunyar el terme humanisme avançat quan en un seminari va ensopegar amb la visió transhumanista, que considera que l’ésser humà transcendirà tots els problemes creant una raça biotecnològica posthumana; dues cosmovisions oposades. Conjuntament amb el científic Miquel-Àngel Serra, ha obert un debat social i acadèmic per pensar sobre aquesta qüestió. Ha publicat quatre llibres sobre el tema; l’últim és Humanismo avanzado para una sociedad biotecnológica (Teconté, 2017).
Es perdran 1,6 milions de llocs de treball en professions físiques, manuals i d’habilitats cognitives bàsiques
Com sabem, cada vegada és més evident la robotització de l’economia i tot sovint van sortint estudis que ho corroboren. L’últim ha estat publicat per la Universitat Complutense de Madrid amb el títol Impacto en la robótica y la automatización en la productividad y el empleo.
Doncs bé, aquest estudi indica que la robotització de l’economia tindrà un impacte positiu en els llocs de treball de l’estat espanyol i calcula que fins al 2030 aquests augmentaran en 600.000. De tota manera, hi haurà professions que destruiran milers d’ocupacions, com són les físiques o que requereixen activitats manuals i les que impliquen habilitats cognitives bàsiques. Es calcula que es perdran 1,6 milions de llocs de treball en aquestes professions.
En el primer grup de les professions que quedaran més afectades amb la pèrdua d’aproximadament 1 milió de llocs hi trobem: conductors, cuiners, personal de neteja, guàrdies de seguretat i personal encarregat del control de qualitat. En el segon grup amb la pèrdua d’aproximadament 600.000 llocs hi trobem: caixers de supermercat, persones d’atenció al client i comptables.
Si mirem la part positiva, l’estudi també indica que a major automatització menor és la taxa d’atur i més es redueix la desigualtat entre països a mitjà termini. De fet, s’espera que gràcies a la robotització a Espanya es creïn més de 2 milions de llocs de treball qualificats.
La tecnología biométrica ha dejado de ser un fenómeno propio de las historias de ciencia ficción. Los gobiernos de algunos países llevan tiempo utilizándola para reconocer a sus ciudadanos, algo que plantea nuevos retos éticos y que ya ha llegado a casos extremos, por ejemplo, en China.
Aunque la palabra “biometría” puede resultar desconocida para el público general, su aplicación está, desde hace tiempo, más que presente en nuestras vidas. Consiste en identificar a las personas a través de una característica física exclusiva: primero fueron las huellas dactilares y, más recientemente, el iris, o el rostro.
China ha instalado 170 millones de cámaras con capacidad de reconocimiento facial que registran los movimientos de las personas
Si cada vez es más fácil acceder a la información personal de casi todo el mundo y gran parte de las transacciones se realizan de manera virtual, entonces la necesidad de identificar bien a las personas resulta acuciante. Aunque las empresas tecnológicas también utilizan este sistema para, por ejemplo, etiquetar personas en una red social o desbloquear un dispositivo móvil, el mayor reto se presenta para dos agentes diferentes: gobiernos e instituciones financieras.
Me he quedado con tu cara
Hasta hace poco, para hacer una transferencia o aceptar el borrador de la Declaración de la Renta, bastaba con introducir un número de identificación personal y, como mucho, confirmar nuestra identidad a través de un correo electrónico o un SMS. Sin embargo, en muchos países, este tipo de gestiones se hacen ya simplemente apoyando el dedo en un lector de huellas o dejando que una máquina escanee el rostro del interesado.
Según los expertos, la identificación biométrica reduce al mínimo la posibilidad de fraude, porque los datos que se usan son prácticamente imposibles de suplantar en caso de que la persona no esté presente.
Y, entre todas las modalidades disponibles, el reconocimiento facial se presenta como la más efectiva, ya que las huellas dactilares son más inexactas y pueden variar ligeramente, por ejemplo, en el caso de una persona que tenga un trabajo artesanal. En cambio, los programas que realizan escáner facial ofrecen una precisión cada vez mayor incluso si el usuario cambia su aspecto, por ejemplo, con una barba o unas gafas.
Además, desde un punto de vista práctico, para los usuarios resulta mucho más fácil dejarse fotografiar por un escáner o pulsar un botón para todas sus gestiones que recordar una gran cantidad de nombres de usuario y contraseñas.
Australia, India y China son algunos de los gobiernos a la vanguardia de este tema.
Mil millones de indios fichados
El gobierno de India posee el mayor programa de identificación biométrica del mundo, Aadhaar. Su sistema sirve tanto para trámites públicos, como para abrir una cuenta en el banco o dar de alta una línea telefónica. Una llave similar al “iniciar sesión con Facebook”, pero con datos más comprometidos y capaz de abrir puertas oficiales.
En Aadhaar, cada ciudadano tiene un número de identificación que contiene sus datos personales y biométricos (huella dactilar, iris…). Aunque es voluntario inscribirse, la realidad es que resulta prácticamente necesario para acceder a los servicios esenciales.
Como puede usarse para realizar gestiones de todo tipo, su base de datos es muy completa y son muchos los que consideran que amenaza la privacidad de los ciudadanos, ya que el gobierno puede saber de manera casi instantánea lo que hacen en su vida pública y privada.
Ahora mismo, el sistema almacena los datos del 90% de los ciudadanos indios, unos 1.110 millones de personas, lo que lo convierte en uno de los grandes objetivos para los piratas informáticos. En volumen compite con las grandes tecnológicas, cuyas bases de datos tampoco resultan nada desdeñables: 2.000 millones de usuarios en el caso de Android y 1.000 millones en el de Apple.
El Estado indio tiene almacenados los datos biométricos de 1.100 millones de personas
También estas últimas están adoptando la biometría: hace tiempo que los dispositivos se desbloquean con la huella dactilar o con la lectura del iris; y el último iPhone X permite ya hacer pagos con su sistema de reconocimiento facial, Face ID.
Pero las exigencias de seguridad que plantean las bases de datos biométricos son demasiado grandes y, por eso, nadie se arriesga a dar pasos sin tener todo bajo control. De hecho, ni Google ni Apple han instalado todavía el escáner compatible con Aadhaar en sus teléfonos indios.
Proyecto australiano
A día de hoy, Australia es el país occidental más convencido de la necesidad de incorporar tecnología biométrica a los sistemas de identificación pública. El Gobierno Federal ya cuenta con una base de datos faciales del 85% de los australianos y, en 2018, tiene previsto aprobar una ley para que también las empresas privadas incluyan en sus bases de datos el reconocimiento facial. Si sale adelante, Australia pondría en marcha el sistema FVS (Face Verification Service) por el que las compañías que obtengan los datos faciales de un cliente podrán enviarlos al gobierno para que éste los verifique. Algo similar se utiliza ya para verificar documentos oficiales (Documents Verification Service), como carnets de conducir, pasaportes, tarjetas de inmigración…
Las razones para ponerlo en marcha son reducir el fraude y respaldar al sector financiero ayudando, además, a frenar el blanqueo de capitales, el terrorismo, etc. Al igual que en India, en principio no será obligatorio acogerse al FVS.
En Australia el gobierno tiene una base de datos faciales del 85% de los ciudadanos y planea aprobar una ley para que también las empresas privadas empleen el reconocimiento de rostros
En la futura ley se especifica que las empresas sólo podrán guardar esta información si cuentan con la autorización expresa del interesado. Sin embargo, es bastante probable que los australianos cedan sus datos con el mismo poco conocimiento con que la mayoría de los ciudadanos leemos las políticas de privacidad de todo lo que aceptamos en Internet.
Además, la normativa especifica que las empresas que quieran utilizar ese sistema deberán garantizar la privacidad de su base de datos, pero el reciente caso de pirateo masivo de Equifax, uno de los proveedores de este servicio aprobados por el gobierno australiano para el sistema de verificación de documentos, hace que la seguridad del proyecto esté, de momento, bastante cuestionada.
Los expertos alertan ya contra la falta de supervisión del FVS y se preguntan quién será el responsable de almacenar esos datos y con quién será legal compartirlos. Además, sus detractores se quejan de la poca transparencia que existe en las negociaciones del gobierno con estas compañías.
Gran Hermano en China
El sector financiero del gigante asiático es pionero en el uso de tecnología biométrica y millones de chinos utilizan ya diferentes sistemas de identificación facial para autorizar pagos. Pero no sólo eso. El caso de China plantea el mayor problema de las bases de datos masivos, que va más allá del riesgo de pirateo: el uso de esa información para controlar a los ciudadanos.
Desde hace años, el gobierno de Xi Jinping espía a sus ciudadanos con un proyecto que ha sido calificado en múltiples ocasiones de “orwelliano”, haciendo referencia al escenario descrito en la novela 1984. El sistema se apoya, sobre todo, en el reconocimiento facial y la inteligencia artificial para vigilar y predecir el comportamiento de las personas.
Para controlar a sus 1.300 millones de habitantes, el Estado chino cuenta con 170 millones de cámaras inteligentes que pueden reconocer un rostro, o descifrar la edad o la etnia de una persona y registrar todos sus movimientos: qué coche tiene, dónde va, con quién se ve habitualmente… En los próximos tres años se instalarán 400 millones de cámaras más.
El gobierno tiene una base de datos con 700 millones de rostros y la utiliza para cosas tan surrealistas como evitar que en los baños públicos las personas tomen más de 60 centímetros de papel higiénico en un período de nueve minutos, como explicaba recientemente The Economist.
“Crédito social”
Con todos esos datos el Estado creó, en 2012, el llamado “Sistema de Crédito Social”: una lista negra del tribunal superior de China con nombres de personas que considera “poco confiables”. El objetivo es que éstas tengan dificultades, más o menos serias, a la hora de acceder a los servicios públicos y privados –desde comprar online hasta conseguir un empleo o colegio para sus hijos–, para que una persona que comete fraude en un lugar no pueda volver a hacerlo en otro.
Algunos gobiernos locales colocan las fotos, nombres completos y direcciones de los incluidos en el sistema en vallas publicitarias, pero lo normal es que las autoridades no avisen a nadie si es incluido ni por qué; las personas se enteran, por ejemplo, cuando no pueden comprar un billete de avión. Los “no confiables” dejan de serlo cuando se retractan en aquello por lo que fueron inscritos en la lista; ahora bien, para eso, primero tienen que conseguir averiguarlo.
Contaba The Wall Street Journal que, sólo en 2017, siete millones de chinos han pasado por el Sistema de Crédito Social. Uno de ellos, por ejemplo, fue incluido por declarar en un juicio como testigo y que su testimonio fuera considerado por el tribunal como “insincero”. Hasta que no hizo pública una retractación pidiendo perdón no han retirado su nombre. En otro caso, un periodista acabó en la “lista negra” tras publicar una información sobre un supuesto extorsionador y no poder demostrar la veracidad de su artículo.
La tecnología que se usa para combatir un crimen cada vez más sofisticado
Lógicamente, se trata de un sistema que da lugar a múltiples abusos, para empezar, porque los afectados no tienen derecho a defenderse ni a un juicio justo. Pero, además, con este proyecto, el gobierno pretende no sólo evitar el crimen, también predecirlo.
Colaboración privada
La comunidad internacional ha criticado muchas veces a las empresas privadas que se pliegan a servir de cómplices al régimen de Pekín. Recientemente, han sido especialmente sonadas las protestas contra Apple, que tiene en China su tercer mercado más importante. La compañía retiró 674 aplicaciones de su appstore en ese país, a petición del gobierno, porque permiten a los usuarios saltarse el llamado “gran cortafuegos chino”. Tim Cook, CEO de Apple, declaró en su defensa que, aunque él como americano no está de acuerdo, “cada país tiene derecho a crear sus propias leyes”.
También las empresas nacionales colaboran de manera activa en el gran sistema de vigilancia, en muchos casos, cediendo sus datos al servicio del gobierno. Es el caso de Sesame Credit, un programa piloto del ala financiera de Alibaba (el Amazon chino, que ya es la plataforma de compra online más grande del mundo), seguido muy de cerca por el Estado.
Con este sistema, Alibaba califica el riesgo de las operaciones financieras en función de las compras de cada persona: “Alguien que juega videojuegos durante diez horas al día, por ejemplo, sería considerado una persona ociosa, y alguien que frecuentemente compra pañales probablemente será padre y, por lo tanto, considerado como alguien con sentido de la responsabilidad”, explicaba Li Yingyun, director de tecnología de Sesame, a la revista china Caixin, en 2015.
Los usuarios pueden conocer la puntuación que Alibaba les otorga. De momento no penaliza, pero sí que premia las puntuaciones altas con descuentos o acceso a ciertos servicios financieros.
En China no existe ningún tribunal que proteja la privacidad y, por lo tanto, los ciudadanos no tienen posibilidad de denunciar a nadie. Sin embargo, su situación actual es mirada con lupa por Occidente, como un modelo al que nunca deberíamos llegar.
Avanza la geopolítica de las éticas de la inteligencia artificial
La IA contribuye a la aparición de muchas preguntas de orden moral acerca su aceptabilidad y conveniencia”, señala Goffi. (Photo by DAVID MCNEW / AFP) AFP
La inteligencia artificial (IA) se ha convertido ya en materia de pleno derecho de las relaciones internacionales, un gran desafío para todos los agentes públicos y privados, e incluso un factor de poder que justifica una carrera por el liderazgo.
Sin embargo, es también objeto de numerosos debates que polarizan los sentimientos entre las esperanzas suscitadas por la nueva tecnología y los temores a los que da lugar. Por un lado, la IA es vista como una herramienta perfecta susceptible de ser usada en muchos ámbitos para mejorar nuestro bienestar, facilitarnos la vida y a veces incluso salvarla. Por otro, preocupa a quienes temen una toma de poder por parte de máquinas convertidas en autónomas y en capaces de tomar decisiones por sí mismas, en detrimento quizá de los humanos.
De hecho, como toda nueva tecnología, en ausencia de un marco jurídico adaptado, la IA contribuye a la aparición de muchas preguntas de orden moral acerca su aceptabilidad y conveniencia. Ahora bien, en un mundo globalizado en el que valores e intereses chocan y se desafían entre sí, puede parecer utópico encontrar unas coordenadas normativas comunes sobre las que edificar un marco preceptivo general. De hecho, mientras la IA crece de manera exponencial, los códigos de ética se multiplican y reflejan mucho más la diversidad axiológica existente que una homogeneidad de las perspectivas.
Así, en lugar de ver el establecimiento de un marco normativo moral que regule el desarrollo y la utilización de la IA, asistimos a la eclosión de un sistema caótico en el que cada agente mueve sus piezas valiéndose de una conducta ética tranquilizadora. Esa cosmética, una ética de puro aparato, cuando no de pura apariencia, cuyo único objetivo es realzar la imagen y, por lo tanto, el prestigio de quien se envuelve con ella, refleja una realidad negada por los defensores del universalismo de los valores. Por un lado, la moral es un constructo social intrínsecamente ligado a un sistema específico de valores. Por otro, las éticas que induce son múltiples y completamente contextuales. En semejante marco, la evaluación moral de la aceptabilidad y conveniencia de la IA sólo puede ser relativa, y todo intento de universalización, puede reducirse a un simple ejercicio de marketing.
La moral: un constructo social (???)
Las definiciones son importantes. No cabe duda de que pueden ser discutidas, pero resultan necesarias para construir un debate eficaz erigido sobre bases comunes. En nuestro caso, no hay consenso sobre las definiciones de moral y ética. Por lo tanto, toda discusión, toda evaluación, se vuelve subjetiva y parcial, por no decir arbitraria.
En materia de moral, las definiciones propuestas por Paul Ricœur resultan de interés por su claridad y su carácter operativo. Así, Ricœur propone dividir la cuestión de la moralidad en tres ámbitos:
1. La moral, en sentido estricto, entendida, por un lado, como “la región de las normas, es decir, de los principios de lo permitido y lo prohibido, y, por otro lado, el sentimiento de obligación en tanto que faceta subjetiva de la relación de un sujeto con las normas”.
2. La ética anterior que representa “el antes de las normas”, es decir, una “ética fundamental” cuyo objeto es la “vida buena”.
3. Por último, en el “después de las normas”, la ética posterior que engloba las éticas aplicadas, que Ricœur llama la “sabiduría práctica”.
En el caso que nos ocupa, el modelo de Ricœur nos permite distinguir la regla moral, mediante la cual la IA es evaluada como buena o mala, de la ética anterior que nos explica sobre qué fundamentos se erige la moral considerada y de la ética posterior que trata de la aplicación de las normas morales en los ámbitos de la IA. Nos permite también comprender que los comportamientos éticos sólo pueden ser juzgados con el rasero del marco moral en el que se insertan. Por último, al señalar que la ética fundamental tiene como finalidad la “vida buena”, Ricœur nos remite a las reflexiones de Aristóteles sobre la finalidad de una ética basada en unas virtudes “consistentes en lo esencial en un modo habitual de obrar bajo la dirección de la preferencia razonable” orientada a la felicidad, que el Estagirita considera como “lo más deseable de todo”, un “bien supremo” cuya fuente se encuentra en la “actividad conforme a la virtud”. En otras palabras, son las virtudes aprendidas socialmente las que definen la felicidad que debe alcanzarse y, por lo tanto, las normas morales que regirán el comportamiento. La moralidad remite, pues, a reglas particulares construidas socialmente y a las que se adhieren los miembros de la comunidad estudiada.
Una nena que es deia Norma es va convertir l’any 1982 en la imatge de la campanya del Govern per la normalització del català. Gairebé 40 anys més tard, el català continua batallant per defensar-se però, a més, en terrenys cada cop més complexos i amb armes més sofisticades, entre les quals la intel·ligència artificial. Perquè la Norma pugui seguir dialogant també amb ordinadors i assistents virtuals com Siri o Alexa, el Govern ha impulsat el projecte AINA, per a la normalització digital del català.
Creat des del departament de Polítiques Digitals, el projecte AINA es proposa generar un corpus i models informàtics de la llengua catalana per proporcionar els recursos necessaris a les empreses que creen aplicacions basades en intel·ligència artificial com per exemple els assistents de veu, agents conversacionals o traductors automàtics.
Extinció digital
“L’objectiu del Govern és que la ciutadania pugui interactuar amb el món digital en català”, ha explicat el conseller de Polítiques Digitals, Jordi Puigneró, en la roda de premsa en què ha presentat el projecte.
Puigneró ha recordat que un estudi realitzat el 2011 per la xarxa europea d’excel·lència META-NET advertia que més de 20 llengües europees, entre les quals el català, s’enfronten a l’extinció digital si no reben més suport tecnològic en àrees com la traducció simultània, la interacció amb veu, l’anàlisi textual i la disponibilitat de recursos lingüístics. El conseller ha advertit que el català aconseguirà perviure si es pot utilitzar també amb normalitat en el nou context digital, com “una llengua útil i competitiva”.
El conseller de Polítiques Digitals, Jordi Puigneró, en la roda de premsa de presentació del projecte AINA
Supercomputing Center Amb un pressupost de 13,5 milions d’euros entre 2020 i 2024, que es preveu que siguin finançats amb fons europeus NextGenerationEU, el projecte arrenca amb una aportació inicial de 250.000 euros del departament de Polítiques Digitals que s’han assignat al Barcelona Supercomputing Center (BSC).
El BSC ja disposa d’un primer corpus textual del català, consistent en 1.770 milions de paraules, reunides en 95 milions de frases, a partir de descarregar textos de diferents fonts digitals, com per exemple la pàgina web del Govern o del DOGC, d’on s’ha extret el 33% dels continguts descarregats.
El superordinador MareNostrum ha hagut de dedicar 2.000 hores de processadors per revisar les dades, eliminar duplicitats i tot allò que no fossin continguts pròpiament en català. Aina incorporarà les varietats dialectals del català, els diferents registres lingüístics, i arxius de veu i imatge, on s’hi inclouran tot el repositoris documental de la Corporació Catalana de Mitjans Audiovisuals.
Intel·ligència artificial Tot plegat ha de servir per desenvolupar les aplicacions basades en la intel·ligència artificial, com ara assistents de veu, xatbots, aplicacions de resum automàtic, cerques intel·ligents, aplicacions per a l’anàlisi de sentiments o motors de traducció i subtitulació automàtica, entre d’altres. Per fer-ho possible es crearan xarxes neuronals per aprendre el català i generar models de llengua, de parla i de traducció.
Tots els models que es creïn al Supercomunting Center estaran a disposició de totes aquelles empreses o entitats que les vulguin fer servir perquè, segons ha explicat el departament, es publicaran en obert i amb llicències permissives.
El nom d’AINA Puigneró ha subratllat que el català no disposa d’un estat al darrere que el protegeixi i que gràcies a l’Aina és molt probable que es pugui sentir el català abans amb Alexa, l’assistent digital d’Amazon, que al Congrés del Diputats o al Tribunal Suprem.
El projecte AINA manté el fil amb la Norma de l’any 1982 creada per l’aleshores directora general de Política Lingüística, Aina Moll. D’aquí el seu nom, que a més, amaga les sigles AI, d’Intel·ligència Artificial.