Ibn García del Blanco, eurodiputado: “Si queremos o perdemos la carrera de la Inteligencia Artificial sin que sirva para la regulación”

Actualizado

Nico Español, que participó en la regulación de la inteligencia artificial, defiende un buen equilibrio entre posiciones maximalistas

ANDRAS GRESKOVITS
  • Europa (Te) Importa Rumbo a Europa 3.0: los resultados de la década digital

Ibn García del Blanco (Len, 1977) permitió al Nico Eurodiputado invertir en el ejercicio de 40 horas que le permitió dedicar dos semanas al tema de la regulación de la inteligencia artificial. Los detalles concretos del texto final se publicarán en las próximas semanas, pero el político socialista lo desafía encontrar un buen equilibrio entre posiciones maximalistas: podemos decir que abrimos la puerta al racismo tecnológico masivo y otros que regulan nuestras paradas en China o UEU.

Vayamos a la sala, a las tres palabras, con posiciones aparentemente irreconciliables.
Tengo un sentimiento compartido entre los eurodiputados, pero también con el Consejo, por lo que necesariamente queremos aportar un hecho, pero no lo sabemos muy bien, porque es seguro que hay diferencias entre nosotros en reuniones anteriores entre nosotros y Tenemos diferencias en puntos fundamentales y en la agenda hay un gran número de controversias graves sin avance. No sabemos de qué estamos hablando, pero lo que tenemos que hacer es hacer lo que sea necesario para no perder el gancho. Y ha dicho bien.
La propuesta legislativa ya ha sido lanzada, pero Chat GTP ha revolucionado todo esto.
El Parlamento plantea cinco veces otro camino con esta norma. Con la primera propuesta de principios aplicados a la IA, informa el ponentes, el Comité Especial de IA, trabaja adecuadamente con la propuesta de la Comisión… Estaba muy, muy maduro y creemos que ha habido poco que rascar políticamente, era hora de mover ficha. El Consejo sabia que seta que hacer en la Presidencia española, que tiene el trabajo técnico, tiene los expertos, mucho trabajo con los capitales. Con todo este proceso de negociación, sabemos que todo será muy difícil con otra presidencia, en su parte informal, que no puede traspasar un puesto a otro. Tenemos el pensamiento compartido de si fue ahora o no. Sí, lo cierto es que era muy difícil para la prensa externa china o para la UEUE dar un paso al costado si primero era necesario regular el sector. Las vacaciones son largas, la implementación lleva un tiempo y la Sra.
Ha sido todo muy atpico en ce regulación.
Es sustancial para el asunto. El campo de la regulación de la IA, que está evolucionando y creciendo, tiene una dimensión que no se puede identificar, la quintaesencia es el modelo fundamental. Hablando con los expertos de allí y de antes, los expertos son muy expertos, podemos decir que ese era un deseo que tenemos en cuatro o cinco años. Y por supuesto exploramos y nuestras sorpresas lo tienen todo. Cómo adaptarse. Con los modelos fundamentales hay un traje a medida, La regulación general se basa en el uso y anticipación del riesgo., pero en los modelos fundamentales, es una estructura tecnológica por poder, que no tiene nada que ver con nada. Es tan complicado. Era el quinto trlogo y hemos batido el record de duracin de la UE.
En la última etapa, los dirigentes de la Unión cambiaron de opinión y se convirtieron en defensores de la autorregulación.
Es la paradoja de saber que reaccionaste antes de reaccionar ante la explosión del chat GTP y que ese también fue el caso de lo que cambió. Hay un problema de regulación y de desarrollo, ya que hay contradicciones. Tanto China como Estados Unidos están a la vanguardia de esta tecnología ya que Europa sólo tiene una cosa normal por regular. Hay que dar marcha atrás al motor, plantando un plan estratégico en una plaza mediana y ancha. En Europa, la cooperación es esencial entre todos los estados miembros. Hemos tomado muchas precauciones para que la regulación no pueda corresponder a un tipo de barra al retirar los modelos. Y estudiamos caso por caso, la diferencia entre riesgos sistémicos, donde la regulación debe ser muy estricta, y modelos que están creciendo y que no se aplican ni generan los mismos riesgos. Pero incluso ella lo dirá. Si ésta es una perspectiva sobre el estándar chino, es muy similar a lo que afecta a los modelos fundamentales al que implementó el Parlamento y que finalmente, en líneas generales, fue aprobado. La orden ejecutiva de Biden es muy ambiciosa en algunos aspectos. En la cuestión de si ganamos o perdemos la carrera de la IA tendemos sólo hacia la regulación, que es una condición sine qua non para el respeto del Estado de derecho.
¿Cuál es el resultado del acerdo?
Nos preocupamos por proteger los intereses públicos de diferentes individuos. Lo que explica por qué prohibiciones o exigencias relacionadas con el uso de tecnología son necesidad de estados, gobiernos, anticipación de medidas, identificación de situaciones, cuestiones de seguridad nacional. Puedes entender, pero creo que estoy acertadamente. El Parlamento apuesta por los derechos fundamentales y las personas como piedra de toque mximo. Y hemos llegado a un equilibrio. Era intolerable el uso de estas tecnologías, y aún cuando se trata de poder público, las líneas rojas no se perdieron. La norma final se parece mucho a lo que proponen el Parlamento y el Consejo. La seguridad nacional es un material de los Estados, pero no puede ser el mismo inflador como lo puede hacer repetidamente el Consejo. El Parlamento que intentará responder y garantizar la seguridad nacional no puede ser un cajón de sastre. Y cuando aceptamos excepciones, es siempre con la previa aprobación de los derechos fundamentales anteriores, autorización judicial, requisitos y garantías. Los ciudadanos pueden estar tranquilos.
¿Qué es todo lo que está prohibido?
Manipulación subliminal. Por ejemplo, etiquetar a alguien como si tuviera una “característica de discapacidad” y segmentar la publicidad en todo lo relacionado con la gripe versus todo lo relacionado con personas con discapacidades. Está prohibido el uso del reconocimiento de emociones. en el trabajo o la educación, por ejemplo. Está prohibido anticipar la llegada de las cremas, como si se tratara de una distopía como Informe de minoría. El reconocimiento biométrico remoto por parte de las autoridades públicas está generalmente prohibido, con determinadas excepciones. Por su potencia, su capacidad intrusiva, está prohibido su uso. Hemos generado certidumbre y seguridad para que un operador pueda revertir las buenas condiciones en Europa y el ciudadano pueda tener tranquilos sus derechos tras una salva.
¿Cómo sabes que hoy no está obsoleto que arruinaste el Chart GTP?
No podemos esperar, no podemos esperar, pero no podemos esperar para anticiparnos. Estamos seguros de lo que parece improbable en los tiempos venideros. Además, La regulación es flexible y se puede utilizar para cualquier evento., porque se basa en riesgo y tecnología. Surge es algo del poder brutal y diferencial que ostentaron los modelos fundamentales o estarán dentro de los parámetros. En caso de que esto suceda tendríamos que volver a una reunión, somos conscientes de lo que hicimos y cometimos un error. Hay un consejo permanente para que haya un diálogo con la administración y el sector, para la defensa de los consumidores. Existe una oficial europea de AI que debe utilizarse para la Saber cómo de cmo evolución.
Mientras ultimaban el acuerdo los activistas denunciaban su capitulación, la aprobación de la tecnología que establece el racismo, hermano mayor oficial.
Es comprensible. Ante una tecnología que revela, por ejemplo, un potencial cambio civilizatorio que hace saltar las alarmas y plantas de Sean, inflacionistas y maximalistas. Cada parte incluye un papel, el sector tecnológico está prácticamente determinado si esto se aplica según los estándares de los medios, en Europa estamos con palos y piedras contra los ordenadores. Estas posiciones son absolutamente radicales, pero necesarias para generar un juego de equilibrio que nos ayude políticamente a alcanzar un punto de virtuosismo. Lo que debe quedar claro es que no hay grillas que impidan un suficiente desarrollo tecnológico. Hay un equilibrio, también para que en caso de una emergencia real, de una necesidad apremiante, también mantengamos las manos en el terreno y podamos reaccionar, por ejemplo ante un crimen terrorista. Con todos los rescatistas, pero que se pueda.