El uso de la inteligencia artificial (IA) en las aulas educativas fue objeto de análisis por parte de varios expertos del ámbito académico en una jornada virtual celebrada el pasado 1 de julio en Funcas. A través de distintas ponencias se analizaron algunas de las transformaciones y potenciales mejoras que estas tecnologías suponen en el terreno educativo, se contrapusieron los beneficios e inconvenientes de su uso y se pudo analizar alguna experiencia en su implementación y las conclusiones obtenidas.
María Teresa Ballestar (URJC y Universidad LUT de Finlandia), se centró en la capacidad de la IA de proporcionar flexibilidad en los itinerarios de aprendizaje, asistencia académica personalizada y una medición precisa y efectiva de los resultados. La ponente mostró cómo la IA ofrece en el campo de la educación un enfoque personalizado, adaptado a las fortalezas y debilidades de cada estudiante, lo que promueve un aprendizaje más efectivo y motivador. Proporciona, además, asistencia académica específica mediante algoritmos avanzados, ayudando a los estudiantes a superar obstáculos y avanzar a su propio ritmo, lo que mejora su rendimiento académico y autonomía. Ballestar también expuso cómo la colaboración entre humanos y máquinas puede optimizar la enseñanza y crea experiencias de aprendizaje más interactivas y dinámicas, permitiendo, por ejemplo, prácticas en entornos seguros que replican situaciones del mundo real, siendo especialmente útiles en campos como la medicina, la ingeniería o las ciencias sociales. La implementación de la IA requiere que los docentes adapten sus métodos y que los estudiantes aprendan a interactuar con estas herramientas. Además, la IA ofrece una medición precisa y efectiva de los resultados de aprendizaje mediante el análisis de grandes volúmenes de datos, proporcionando retroalimentación en tiempo real y fomentando el desarrollo del juicio crítico en los estudiantes. En resumen, la IA transforma el proceso educativo desde el diseño del aprendizaje hasta la interacción diaria.
Raquel Ibar, de la Asociación Española de Profesores Universitarios de Matemáticas para la Economía y la Empresa y profesora de la URJC, contrapuso los múltiples beneficios a los significativos riesgos que supone la IA en materia de educación. Ibar abundó en algunas de las mejoras citadas en la ponencia anterior y subrayó, además, cómo la IA puede mejorar la retención de estudiantes, fomentar la accesibilidad y la inclusión, así como proporcionar interacción conversacional y contenido educativo personalizado. Pero también advirtió sobre el uso fraudulento de herramientas como ChatGPT, por ejemplo para realizar trabajos, lo que podría afectar el desarrollo académico de los alumnos. Para mitigar estos riesgos, Ibar enfatizó la necesidad de estrategias que incluyan políticas de privacidad sólidas, auditorías de sesgo y capacitación para los educadores en el uso de estas tecnologías que permitan gestionar adecuadamente los riesgos asociados con la IA.
Finalmente, Guillermo de Haro, de IE University, compartió las conclusiones obtenidas a partir de la propia experiencia del uso de herramientas de IA en su institución. Entre ellas, la necesidad de desarrollar guías y políticas claras para una implementación efectiva o la importancia de fomentar el pensamiento crítico entre los estudiantes para manejar los errores de la IA. De Haro abogó por la integración curricular de competencias en IA, imprescindible en un entorno de rápida adopción de estas tecnologías, para asegurar que los estudiantes estén preparados para el futuro tecnológico.
En resumen, la jornada destacó la importancia de la IA en la educación, presentando tanto sus beneficios como los desafíos y riesgos asociados. Los ponentes coincidieron en la necesidad de políticas claras y estrategias efectivas para maximizar el potencial de la IA en el ámbito educativo, mientras se mitigan sus posibles riesgos.
La bella
ciudad lusa de Sintra acoge un año más, los próximos 1, 2 y 3 de julio de 2024,
el Foro de Bancos Centrales, que organiza el BCE. Es una cita obligada para
banqueros y analistas, al igual que lo es la de Jackson Hole (Wyoming) de
finales de agosto, de la Reserva Federal estadounidense. El contenido de estas
jornadas dice mucho de los asuntos que ocupan y preocupan a los banqueros
centrales. El Foro de Sintra lleva como leitmotiv La política monetaria en
una era de transformación, un guiño implícito al cambio de coyuntura de
tipos de interés, pero también al impacto de la tecnología y la inteligencia
artificial (IA), entre otros factores de conversión de la economía y la
sociedad.
Los
bancos centrales llevan desde 2007-2008 en un proceso continuo de cambio y
ampliación de sus funciones y competencias. Primero, inyectando una liquidez
enorme en los mercados para aplacar los desastres causados por la crisis
financiera global y de la deuda soberana europea. Después, para evitar la
deflación, una amenaza que fue real muchos años, se apostó por la contra natura
de los tipos de interés negativos. Posteriormente, cuando todo el mundo
esperaba la normalización de tipos y de las numerosas facilidades
extraordinarias de financiación, los bancos centrales tuvieron que seguir
actuando expansivamente por la pandemia. Y los últimos años, tras la pandemia y
con la guerra de Ucrania, surge una inflación elevada y resistente, que obligó
a subir los tipos de una manera inesperada y casi radical a niveles bien por
encima de los catalogados como “neutrales”.
Solamente
ahora parece que se puede iniciar un ciclo que relaje el precio oficial del
dinero. No obstante, el entorno es comprometido para los banqueros centrales.
No todos llegan a Sintra con las mismas sensaciones. Hay dos sesiones en las
jornadas que se dedican a los fundamentales de los tipos de interés y a la
evolución del ciclo monetario, y ahí se evidencian divergencias notables.
Estados
Unidos está creciendo por encima de lo esperado y con una inflación que se
resiste a llegar al objetivo. Por si fuera poco, unos mercados americanos en
pleno hype, en particular con las tecnológicas, que no paran de aumentar
su valor de mercado con los riesgos de corrección brusca que implica. La
exuberancia casi irracional con el valor de la empresa Nvidia es el caso más
extremo. Por todos esos factores, y para evitar reanimar la inflación en una
economía sobrecalentada, la Fed de Estados Unidos tiene una hoja de ruta muy
compleja para los próximos meses, tras ir demorando la bajada de tipos desde el
año pasado, y con un fin de año de gran relevancia política, con las elecciones
presidenciales, que pueden traer de vuelta a Donald Trump a la Casa Blanca,
algo que tener en cuenta también.
A este lado del Atlántico, el anfitrión en Sintra, el BCE, tiene sus propias tribulaciones. Una economía mucho más taciturna que la americana, con numerosos enigmas tanto a escala coyuntural —inflación, coste de la energía, crecimiento de los salarios— como estructural, con desafíos pendientes para mejorar la competitividad. Por eso, una sesión de las jornadas se dedica a la productividad europea a corto y largo plazo, donde queda mucho por hacer.
Hay
incertidumbre sobre si el impacto de la IA nos acercará (o nos alejará) de
Estados Unidos y China. También por los resultados de las elecciones europeas y
las elecciones anticipadas de Francia, que han vuelto a recordarnos la
pesadilla de las primas de riesgo, donde preocupa sobre todo el país galo. La
autoridad monetaria de Fráncfort continúa evitando que las rentabilidades de la
deuda soberana europea vuelvan a convertirse en el quebradero de cabeza que
fueron en 2012. Eso sí, el BCE ya ha comenzado las reducciones de tipos, algo
que puede impactar en una depreciación con respecto al dólar.
Esa diferente coyuntura a la que se enfrentan los dos principales bancos centrales se reflejará en los mensajes que Christine Lagarde y Jerome Powell transmitan sobre que harán con los tipos de interés. Coincidirán en que sus decisiones las toman reunión a reunión y a partir de la información disponible en cada momento. Difícil que coincidan en mucho más.
Los otros temas que trata el Foro reflejarán visiones distintas también. Se va a hablar de la biodiversidad, algo que parece preocupar mucho más en nuestro continente que en otras zonas del mundo. El intenso papel del BCE y la regulación financiera en potenciar la transición energética podría cambiar con la nueva legislatura europea, a la luz de las declaraciones de algunos de los partidos que lograron una mayor representación. El BCE seguirá supervisando la huella de carbono —entre otros indicadores— de los créditos e inversiones bancarias, pero quizás los objetivos del propio proceso de transición energética pasen a ser menos perentorios.
Se hablará también del sistema financiero internacional, único lugar donde se podría hablar de la economía y finanzas de los países en desarrollo, siempre un gran olvidado en estos foros. Por último, llama la atención (o, mirándolo con algo de ironía, quizás no) que no se vaya a tratar la cuestión de las monedas digitales, como el euro o dólar digital. El impulso político es bastante mayor en el caso del primero que en el segundo, pero quizás la mucha incertidumbre sobre las divisas digitales justifique no incluir un tema hasta que se considere que está más maduro.
Este artículo se publicó originalmente en el diario Cinco Días
Muchas
son las razones que se aducen cuando se habla de la menor productividad europea
con respecto a Estados Unidos. Entre las frecuentes, el menor tamaño relativo
de las empresas del Viejo Continente, que impide el aprovechamiento de las
economías de escala. España es un caso claro que lleva a muchos analistas a
plantear la necesidad de aumentar la dimensión de nuestras corporaciones. Desde
normas burocráticas que desincentivan la creación de empresas más grandes,
hasta la escala del mercado interior —sea el europeo o el español— que no se
acerca a la realidad del norteamericano. Aunque la UE cuenta con un Mercado
Único teóricamente desde hace más de 30 años —reforzado con el euro y otros
avances— aún existen obstáculos a que la escala real del marco competitivo para
muchas empresas sea la de Europa.
Con
la mayor magnitud del Mercado Único de la década de 1990, los países empezaron
a incentivar sus “campeones nacionales”, grandes empresas que fueran capaces de
competir en ese marco sin barreras. Fue una época de fusiones y adquisiciones
en numerosos sectores, destacando el financiero. España fue buen ejemplo.
Curiosamente fue una década antes cuando se lanzó un campeón europeo en el
ámbito aeroespacial, Airbus, una potencia industrial en la actualidad. Se hizo
algo bien en aquel momento. No ha vuelto a acontecer salvo con Galileo
(satélites), otro gran éxito. Estos dos proyectos panaeuropeos se quedaron en
solitario y dieron paso a las iniciativas de “campeones nacionales”, de cada
país por separado. La competencia interna en la UE no es, en absoluto, mala. De
hecho, es uno de sus principios fundacionales. Sin embargo, los acontecimientos
tecnológicos del siglo XXI, donde han aparecido grandes tecnológicas
estadounidenses y chinas, han dejado rezagada a la UE, sin “campeones
continentales” al menos hasta ahora. En vez de esos grandes operadores, los
europeos andábamos con una visión muy nacional de los asuntos económicos. Ahora
estamos a las puertas de unas votaciones europeas, pero las que más importan
son las que ocurren a escala doméstica, a pesar de la creciente importancia de
las decisiones y recursos europeos. El Brexit, la crisis de la deuda soberana,
la falta de completitud en la integración europea y el consiguiente mayor
desapego de buena parte de la población, han dado lugar a un menor debate y
apuesta por lo europeo. Aunque los fondos EU Next Generation fueron una gran
noticia, no han logrado tener ese impacto deseado. Y durante la pandemia
también se primó lo nacional con las ayudas nacionales de Estado que se
permitieron en ese periodo crítico, que volvió a ser una apuesta por los
“campeones nacionales”.
Es el tiempo de los “campeones europeos” —con escala suficiente— en diferentes sectores estratégicos. Particularmente, en Inteligencia Artificial, donde ahora se habla de Gaia-X, la primera propuesta europea de IA prometedora que se lanza. Se ha perdido mucho tiempo, décadas, en desarrollar una comunión de intereses tecnológicos en la UE, pero al final puede llegar. Veremos si tiene éxito y es un verdadero player (jugador) global.
Este artículo se publicó originalmente en el diario La Vanguardia.
La inteligencia artificial (IA) lleva años en muchos foros y conversaciones, pero de forma casi ubicua desde que se popularizaron los chats conversacionales basados en esta tecnología. A pesar de su impacto, es solo una fase temprana de su potencial de desarrollo, en el que el siguiente paso es trascender su papel de mera herramienta para convertirse en una extensión de la mente humana, dando lugar a una era de simbiosis entre humanos y tecnología que promete transformar radicalmente la economía global. No se trata de crear replicantes al estilo Blade Runner, ni de perder la creatividad e iniciativa humana. El concepto de IA simbiótica busca amplificar nuestras capacidades cognitivas y creativas y generar un impacto económico considerable en todas las industrias, donde la escala, como comentaremos más adelante, parece determinante. Es un nuevo salto para una productividad marchita, tan de largo esperado.
En el ámbito económico, la IA simbiótica está revolucionando la forma en que trabajamos y producimos. Imagine un entorno laboral donde los trabajadores están equipados con dispositivos de IA que no solo les ayudan a realizar tareas específicas, sino que también mejoran su capacidad para tomar decisiones informadas y resolver problemas complejos. Incrementa la productividad y abre nuevas oportunidades para la innovación y la colaboración laboral. También asistentes virtuales, como por ejemplo los que trabajarán en estrecha colaboración con profesionales de la salud para mejorar el diagnóstico y el tratamiento de enfermedades, o los que ayudarán a los inversores a tomar decisiones financieras más inteligentes. La IA es la parte de la actividad productiva que más crece y, por ello, para no quedarse atrás en las futuras fuentes de crecimiento económico y bienestar, hay que embarcarse en su desarrollo.
Si bien ofrece oportunidades emocionantes para mejorar la productividad, la creatividad y la eficiencia en el lugar de trabajo, la IA simbiótica también plantea una serie de riesgos y desafíos que deben abordarse de manera proactiva para garantizar un desarrollo equitativo y sostenible. Es fundamental repensar la educación y la formación laboral para garantizar que los trabajadores estén preparados para los empleos del futuro. También abordar las preocupaciones sobre la concentración de poder económico en manos de unas pocas empresas tecnológicas dominantes, asegurando que la IA simbiótica beneficie a toda la sociedad de manera equitativa. Lo que pasa es que la escala es determinante para este desarrollo y, cuanto más grandes, más potencial hay: una suerte de monopolio natural.
Otro de los riesgos más significativos asociados con la IA simbiótica es el aumento de la automatización del empleo, que podría conducir a la pérdida de puestos de trabajo en sectores tradicionales y a la polarización del mercado laboral. Esto podría exacerbar la desigualdad económica y social, dejando atrás a aquellos que carecen de las habilidades necesarias. Es fundamental implementar políticas de reconversión laboral y protección social para garantizar que todos los trabajadores puedan beneficiarse de las oportunidades que ofrece la IA simbiótica.
Además, existe el riesgo de que la IA simbiótica amplifique las disparidades existentes en términos de acceso y uso de la tecnología. Las comunidades marginadas y los países en desarrollo podrían quedarse rezagados si no tienen acceso a la infraestructura y la formación necesarias para aprovechar plenamente el potencial de la IA simbiótica. Para evitar un desarrollo desigual, es crucial invertir en infraestructura digital y programas de alfabetización tecnológica que promuevan la inclusión y la equidad en el acceso a la IA simbiótica. Además de abordar los riesgos, es fundamental trabajar hacia un desarrollo de la IA que sea ético y centrado en el ser humano. Esto significa garantizar la transparencia y la rendición de cuentas en el diseño y el uso de los sistemas de IA, así como salvaguardar la privacidad y la autonomía de los individuos. También implica evitar la discriminación y el sesgo algorítmico, asegurando que la IA simbiótica promueva la igualdad de oportunidades y el respeto por la diversidad.
Es conveniente insistir en que un desarrollo verdaderamente significativo y simbiótico depende del modo en que se alcanza la escalabilidad y la concentración. Va a ser uno de los ejes fundamentales de los próximos años. Se ha podido comprobar en nuestro país, en estos días, ante la opa primero “amigable”, ahora hostil, del BBVA al Sabadell, por la preocupación por la excesiva concentración.
Sin embargo, se viene abogando desde hace tiempo por el aumento del tamaño de la empresa española, que parece uno de los lastres para una mayor productividad, algo que será inevitable si nuestras empresas tecnológicas quieren competir a escala europea o global. Todos los sectores donde la información y la IA juegan un papel central se van a mover en ese debate entre productividad y aumento del tamaño, o sea concentración.
No será un equilibrio fácil, pero hay que prepararse, ya que es lo que viene: más y más escala. Europa, tan rezagada en comparación con las grandes tecnológicas estadounidenses y chinas, ha lanzado su Airbus de la IA, un consorcio entre países europeos para desarrollar un gigante tecnológico capaz de competir globalmente, tal y como ocurrió en la década de los ochenta con el constructor de aviones. Se llama Gaia-X, de la que se va a hablar en los próximos tiempos, y con la que se debe ganar escala en este contexto de la IA. Que no quede solo en eso, y en unos años pase a ser un competidor global más.
Este artículo se publicó originalmente en el diario Cinco Días
La IA puede aplicarse en las diferentes áreas y departamentos de las pymes, así como en la cadena de valor.
La implementación de la inteligencia artificial en los negocios precisa de una estrategia y de una serie de pasos para evitar errores.
La utilización de la IA en las pymes requiere de un código ético para su adecuado uso y de una gobernanza del dato.
Inteligencia artificial (IA). Está es quizá una de las palabras que más se oye en el ámbito empresarial en los últimos meses por su irrupción y potencial para optimizar la actividad y beneficios de las compañías. Y no solo de las grandes. También de las pequeñas y medianas empresas porque, a diferencia de lo que se piensa, la IA tiene numerosas ventajas y beneficios para las pymes. Solo hay que conocer todo lo que puede hacer, tener formación para saber cómo implementarla de la mejor manera posible y elegir bien la herramienta más adecuada.
La selección de la aplicación o solución con IA es fundamental. Es cierto que la inteligencia artificial cabe aplicarla a todas las áreas o departamentos de las pymes y a su cadena de valor. Entre sus principales impactos positivos destacan:
una mayor eficiencia operativa,
una mejor experiencia de cliente
y una optimización en la toma de decisiones.
Las herramientas de IA tienen además la particularidad de que los resultados se observan de forma inmediata, aunque también hay impactos que se perciben en el medio y largo plazo. Esto ayuda a que la inversión realizada en este tipo de tecnología tenga un rápido retorno. De todos modos, se nota de manera más intensa en el medio y largo plazo. No obstante, todo dependerá de cada una de las pymes y de la solución implementada.
¿Y cómo puedes aplicar la IA a tu negocio? ¿Qué hay que tener en cuenta? En este artículo, te damos todas las claves para hacerlo con éxito.
CONTENIDO DEL POST
Principales usos de la IA en las pymes
No hay área, departamento o proceso en el que no pueda emplearse la IA, aunque es más habitual, al menos de momento, en una serie de usos. Estos son los principales que debes tener en cuenta, aunque hay muchos más:
Creatividad
La IA permite generar ideas y contenidos creativos e innovadores. Esto es de ayuda para las publicaciones en redes sociales, blogs corporativos o para que ofrezcas experiencias únicas a los clientes o usuarios. Un dato importante es que, al ser generadas con inteligencia artificial, son más difíciles de copiar o plagiar.
Ahorro
Otra de las grandes ventajas de su uso en las pymes es la capacidad de ahorrar tiempo y costes por la automatización de todo tipo de procesos en la empresa, incluyendo el área de producción.
Clientes
La IA hace más fácil que las pymes se diferencien de su competencia porque es más sencillo adaptar productos y servicios a los clientes o usuarios. Esto te facilita conectar con ellos y fidelizarles. Además, gracias a herramientas como los chatbots, puedes dar atención 24 horas durante los 365 días del año. En sectores, como por ejemplo la restauración, ayudan en la labor de las reservas y cancelaciones.
Productos
La inteligencia artificial ayuda a las pymes a hacer diseños de productos o prototipos de forma más rápida y sencilla. Con esto, se reducen costes porque no se desperdician materiales por equivocaciones como sucede con la moda, lo que impacta a su vez en un ahorro de costes. Así, es posible iterar a gran velocidad para lanzar nuevos productos ganando en eficiencia.
Análisis
Una de las grandes ventajas para las pymes es que la IA tiene capacidad de analizar e interpretar grandes volúmenes de datos. Esto repercute en una toma de decisiones más eficiente al basarse en información fiable, observar patrones e identificar posibles tendencias.
Pasos previos para implementar la inteligencia artificial con éxito
Para que te beneficies de las ventajas de la IA, es importante que tengas claro una serie de pasos previos y posteriores para que el uso de herramientas y soluciones se haga de forma exitosa. Estos son las pautas que puedes seguir:
Objetivos: el primer paso es que las pymes definan bien qué quieren conseguir con la IA. Es decir, especificar los objetivos, sopesando los puntos fuertes y débiles o posibles problemas a surgir durante su utilización.
Datos: es especialmente importante que las pequeñas y medianas empresas sean conscientes de los datos que necesitan para emplear la IA de cara a utilizar aquellos precisos y de calidad. Esto lleva a su vez a tener que establecer medidas para su seguridad, de gobernanza del dato y criterios éticos para su empleo.
Implementación: las pymes tienen que desarrollar el proyecto con la IA sin perder de vista que es precisa la integración con el sistema u otras soluciones que ya empleen. Tras esa fase, ya se tiene vía libre para comenzar las pruebas. En este proceso, es clave comenzar poco a poco para ir validando y corregir posibles errores. Una vez superado y todo correcto, ya se escala.
Medir: la aplicación de la IA en las empresas de nada sirve si no se hacen mediciones y monitorizaciones, preferentemente, en tiempo real. Esto facilita detectar posibles mejoras a incorporar, hacer un control de la eficiencia para su mayor optimización y conocer posibles alertas y errores en segundos para corregir de manera rápida.
Alrededor de la IA se han desarrollado numerosas herramientas para pymes. Un motivo por el que es fundamental elegir aquella que mejor se adapte. ¿Qué puedes encontrar? Aquí van algunas:
Sistemas RPA: especialmente concebidos para la realización de trabajos manuales que suelen conllevar mucho tiempo.
Sage Copilot: esta herramienta integral para pymes pone el foco en aplicar la IA en áreas como la contabilidad, finanzas y gestión de equipos. También contribuye a agilizar la toma de decisiones, convirtiéndola en más inteligente, gracias a su capacidad de detectar errores y generar informes con contenido práctico y exclusivo en función de la selección de los datos. Igualmente, facilita la automatización de los flujos de trabajo.
Herramientas de IA aplicada con sistemas de entendimiento del lenguaje natural: efectúan el análisis de audio y texto.
Soluciones de machine learning: realizan predicciones y detectan incidencias, entre otras ventajas.
Chatbots: idóneos para conversaciones en tiempo real.
Son solo algunas de las herramientas que puedes utilizar en tu negocio. Además, la mayoría de ellas no tienen un alto coste económico. Es otra de las ventajas de la IA en las pymes. Y es que esta tecnología ha contribuido a democratizar los avances para que no se queden solo en las grandes compañías y las pequeñas también puedan beneficiarse y competir en el mercado.
En los últimos tiempos hay una sensación creciente de que el proceso de digitalización de la economía y la sociedad es el pasado. El presente y el futuro lleva pasando tiempo por el desarrollo de la inteligencia artificial (IA). Europa hace más planes de los que ejecuta y eso hace que la IA no despegue. En otros lares se actúa al ritmo de las innovaciones. En Europa se reconoció en 2020 la necesidad de crear un instrumento transversal como los generosos fondos Next Generation EU para apoyar la digitalización y la sostenibilidad de las economías y sociedades europeas. Aún se están desplegando, casi cuatro años más tarde, debido a la excesiva burocracia y a la visión sin excesivas urgencias que suele mantener la UE en muchos asuntos. Entre tanto, muchos países —Estados Unidos y China a la cabeza— han pasado a la siguiente pantalla —o incluso a alguna más allá— con todas las potencialidades —aún inimaginables— que tiene la IA. Nuevamente, Europa podría estar quedando atrás.
El fenómeno Nvidia —uno de los principales fabricantes de chips para IA—, con un subidón bursátil en los últimos meses casi sin precedente, es uno de los grandes ejemplos de cómo está valorando el mercado las potencialidades que se están desarrollando. Se beneficia todo el sector tecnológico. El productor de hardware Dell vio su acción multiplicarse por 30 en un día ante las expectativas de fuertes incrementos en ventas de los procesos vinculados a IA. Y las tres grandes tecnológicas, Alphabet (matriz de Google), Microsoft y Amazon han comprobado como la suma de sus valores de mercado ha aumentado más de 2,5 billones de dólares durante el bum de la IA. Las tecnológicas europeas también disfrutan el favorable clima inversor. Sin embargo, la escala de sus operaciones y la menor interacción provechosa de negocios y líneas de producto limitan mucho el alcance de los efectos positivos.
El fuerte impulso se observa en las cifras. Según la web There is an AI for that, hay ya más de 12.000 apps que emplean algún modelo de IA. En 2022 solamente había en torno a mil. Las grandes tecnológicas americanas (Alphabet, Microsoft y Amazon) se encuentran nuevamente entre las ganadoras con ventaja competitiva, e al incorporar en sus plataformas muchas apps y funcionalidades. Todas estas cifras y actividades muestran que el proceso de digitalización general ha dado paso a una efervescencia de la IA en Estados Unidos. También en China. Sin embargo, en Europa el proceso, aunque en marcha, parece más lento, entre otras razones, por el punto de partida del que salieron, en el que ya había una menor escala de los desarrolladores y un entorno regulatorio y empresarial menos favorable a la interacción y la colaboración entre startups.
El dinamismo empresarial, incluyendo fusiones y adquisiciones de startups, y la capacidad para atraer el mejor talento, impulsa enormemente los avances en la IA. En el sector corporativo tecnológico americano, numerosas compras de startups permiten la adquisición de las capacidades técnicas y de habilidades que tenían esas empresas innovadoras. Cuando el talento no se incorpora a través de esas transacciones, se puede atraer más granularmente con mejores remuneraciones y con un plan de negocio y desarrollo tecnológico para captar los mejores recursos humanos. Son ya meses con fichajes del talento entre competidores en IA. A veces pagando unas compensaciones aparentemente excesivas —donde el dinero inversor abunda, a veces se pasan de frenada— que solamente el tiempo dirá si compensaron.
De nuevo, Europa parece quedar muy detrás en materia de salarios en el sector tecnológico. Esto será un cuello de botella para el desarrollo de la IA —verdadera a autopista de creación de valor añadido desde ya— en el Viejo Continente, con lo que las posibilidades de crecimiento de la productividad y, por tanto, de la actividad económica, parecen tener un límite importante. Más en países como España, con salarios —y niveles de productividad— comparativamente bajos, con grandes riesgos de fuga de talento, sobre todo digital, que lleva ocurriendo desde hace tiempo; y, por ello, con gran peligro de quedarse a la cola de los países avanzados en desarrollo de IA.
La digitalización general transversal de toda la economía —ciudadanos, empresas, administraciones públicas— ya no es suficiente para la IA del futuro. Por supuesto, mejor un entorno en el que todos estemos digitalizados, pero se precisan iniciativas que empujen decididamente la potencialidad de esta herramienta. En EE UU, acostumbrado a hacer casi siempre exclusivamente desde lo privado, ya se está haciendo con éxito. En China, la IA también ha explotado. Europa necesita de la iniciativa privada también y de su escalabilidad, pero, como suele ocurrir en el Viejo Continente, el sector público deberá generar potentes incentivos —incluidos financieros— para poder aprovechar esta enorme oportunidad. A pesar de los diferentes equilibrios institucionales europeos —con un sistema regulatorio más garantista en materia de privacidad—, se puede lograr una diferenciación y generar importante valor añadido.
Estamos en una nueva era, donde la IA tiene el potencial de amplificar nuestras capacidades y enriquecer nuestras vidas como nunca. Hay países, que, por su mejor punto de partida (Estados Unidos), están avanzando de modo casi explosivo. En Europa, ese futuro solo será tan brillante como nuestra capacidad para guiar la IA hacia usos que reflejen nuestros valores y aspiraciones comunes. En este punto de inflexión, la invitación está abierta: participar activamente en la configuración de un futuro donde la tecnología y la humanidad avanzan juntas, hacia horizontes aún inimaginados.
Este artículo se publicó originalmente en el diario Cinco Días
Tras la aprobación por parte del Parlamento Europeo de la primera ley de Inteligencia Artificial (IA) del mundo, será importante tener claro cuáles serán sus consecuencias en el entorno empresarial.
Aprobada el 13 de marzo de 2024, se trata de la primera propuesta legislativa sobre IA del mundo, por lo que aspira a convertirse en referente internacional.
La aplicación de la nueva ley de Inteligencia Artificial será gradual, hasta implantarse de manera definitiva en 2026.
Cuando hablamos de Inteligencia Artificial (IA) no estamos hablando solo sobre innovación, sino de una serie de herramientas que pueden suponer un impulso fundamental para los negocios.
Es por ello que la Unión Europea (UE) creyó en la necesidad de mejorar las condiciones para su desarrollo, estableciendo así una nueva ley. En este sentido, será importante que no lo veas solo como un conjunto de reglas y regulaciones; se trata de comprender cómo esta ley puede moldear tus estrategias de IAe inversiones ahora y en el futuro.
En este artículo, exploramos lo que la ley significa para ti, independientemente de si estás al mando de una startup o gestionando una empresa en crecimiento.
¿Qué es la Ley de IA de la Unión Europea?
La ley de IA de la Unión Europea es un marco legislativo diseñado para regular el uso y desarrollo de la Inteligencia Artificial dentro de la Unión Europea. Una iniciativa pionera, siendo la primera propuesta legislativa de estas características en proporcionar normas completas y transparentes para los sistemas de IA en todo el mundo.
Tener claro el uso de la IA, la protección de datos y la gestión del riesgo son aspectos relevantes para la planificación empresarial de tu negocio. Por eso, será importante que estés al tanto de la nueva legislación y que la veas como:
Un desafío: Para asegurarte de que tus proyectos impulsados por IA se ajusten a estas regulaciones.
Una oportunidad: Aunque todas las empresas deben cumplir las mismas normas, cómo lo hagas podría variar significativamente de otras. Ir más allá del cumplimiento y abrazar proactivamente los principios éticos y responsables de la IA podría diferenciar a tu negocio.
La opinión de los expertos
“Con la IA instalándose en el mainstream, existen grandes beneficios que pueden derivar de educar al público para generar confianza”, dijo Mark Brown, director general global de Digital Trust Consulting en BSI.
«Las organizaciones que tomen una visión a largo plazo pueden ver que la IA les permite mejorar su ciberseguridad, privacidad o el momento digital.”
¿Cuáles son los motivos de la entrada en vigor de la Ley de IA?
Impulsar la excelencia y la innovación tecnológica mientras se asegura la protección de los derechos humanos son algunos de los motivos principales de una ley de estas características.
Otro de los motivos es la naturaleza dual de la propia Inteligencia Artificial, con sus oportunidades y desafíos.
Oportunidades de la IA
La IA ofrece oportunidades sin precedentes para la innovación, eficiencia y resolución de problemas.
En cuanto a la innovación, competencia y propiedad intelectual, la UE busca fomentar un ambiente competitivo al animar a las empresas a invertir en investigación y desarrollo de tecnologías de IA.
Desafíos de la IA
La IA plantea riesgos y desafíos significativos, especialmente sin una supervisión adecuada.
La ley pretende el desarrollo de sistemas de IA que respeten la autonomía humana y prevengan daños. Su objetivo es crear un entorno seguro y confiable para la implementación de la IA, de modo que puedas gestionar los riesgos empresariales al tiempo que maximizas los beneficios.
Además, categoriza las aplicaciones de IA en función de su riesgo, que va desde inaceptable hasta mínimo, imponiendo los requisitos y las obligaciones legales correspondientes.
Otros aspectos destacados:
Privacidad y derechos personales
Una de las preocupaciones más apremiantes que aborda la ley es el potencial de los sistemas de IA para infringir la privacidad y los derechos personales.
La capacidad de la IA para procesar grandes cantidades de datos puede llevar a la vigilancia intrusiva o a decisiones sesgadas, lo que afecta desde las oportunidades laborales hasta el acceso a servicios.
Falta de transparencia
La falta de transparencia en los algoritmos de IA puede dificultar la comprensión de cómo toman sus decisiones, desafiando el principio de responsabilidad.
Autonomía de la IA
Existen preocupaciones éticas con respecto a la autonomía de los sistemas de IA.
A medida que la IA avanza, aumenta el riesgo de que estos sistemas tomen decisiones sin supervisión humana.
En escenarios donde las decisiones impulsadas por la IA pueden tener consecuencias perjudiciales, ¿quién es responsable?
¿Cuál es el alcance de la ley de la IA?
La ley de la IA tiene un alcance amplio, englobando diversos aspectos del desarrollo y despliegue de la IA dentro de su ámbito regulatorio.
Además, clasifica los sistemas de IA en diferentes niveles según sus posibles riesgos para la sociedad y los individuos.
Sistemas de IA de alto riesgo
La ley se centra principalmente en los sistemas de IA «de alto riesgo», reconociendo su potencial para tener un impacto significativo.
Estos incluyen tecnologías de IA utilizadas en infraestructuras críticas, educación, empleo, servicios esenciales públicos y privados, aplicación de la ley, migración y administración de justicia.
La ley tendrá requisitos de cumplimiento que te pedirán asegurar la calidad de los datos, la transparencia y la supervisión humana.
A medida que avanza la IA, el riesgo de que estos sistemas tomen decisiones sin supervisión humana aumenta, lo que podría llevar a resultados no deseados o dilemas éticos donde la lógica de la máquina entra en conflicto con los valores humanos y las normas sociales.
Por ejemplo, un sistema de IA utilizado para reclutamiento debe ser transparente en su proceso de toma de decisiones y evitar sesgos, asegurando un trato justo para todos los solicitantes de empleo.
Sistemas de IA de bajo riesgo
Las aplicaciones de IA consideradas de bajo riesgo, como videojuegos habilitados con IA o filtros de correo no deseado, están sujetas a requisitos regulatorios mínimos.
El objetivo aquí es fomentar la innovación asegurando que estas aplicaciones, aunque de bajo riesgo, aún mantengan la confianza y seguridad del usuario.
Además, podemos destacar otros aspectos importantes a tener en cuenta:
Prácticas prohibidas
La ley también identifica ciertas prácticas de IA como inaceptables debido a su amenaza clara para la seguridad, los medios de vida y los derechos.
Estas incluyen sistemas de IA que manipulan el comportamiento humano para eludir la libre voluntad de los usuarios (como deep fakes utilizados para difundir desinformación) y sistemas que permiten «puntuaciones sociales», donde los gobiernos utilizan la tecnología para evaluar y clasificar a los ciudadanos en función de su comportamiento, actividades y diversos criterios.
Obligaciones de transparencia
La ley exige transparencia para sistemas de IA específicos, como chatbots, para que los usuarios sepan que están interactuando con una IA.
Esto es crucial en contextos como el servicio al cliente, donde comprender si se está comunicando con un humano o una IA puede impactar significativamente la calidad de la interacción para el cliente.
¿Cuáles son las implicaciones prácticas de la ley de IA?
La ley enfatiza en la importancia de probar y comprender a fondo los sistemas de IA para mitigar los riesgos antes de desplegarlos al público.
Estándares de cumplimiento
Para las empresas que desarrollan o utilizan IA, esto significa seguir rigurosos estándares de cumplimiento, especialmente para aplicaciones de alto riesgo.
La industria de ciberseguridad ha respondido a la necesidad de un marco en el que los sistemas de IA generativa se desarrollen y operen bajo los estrictos principios de «Confianza Cero».
En lugar de asumir que todo dentro de la red de una organización es confiable, la Confianza Cero se basa en el principio de que nada (dentro o fuera de la red) debe ser autorizado por defecto.
La Confianza Cero requiere una estricta verificación de identidad para cada persona y dispositivo que intenta acceder a recursos en una red privada, sin importar si están dentro o fuera de la red.
Educación
La ley no exige explícitamente requisitos educativos o de capacitación específicos.
Sin embargo, implica la necesidad de conocimientos y comprensión adecuados de las tecnologías de IA para aquellos que las desarrollan, implementan y utilizan, especialmente en escenarios de alto riesgo.
Ley de IA de la UE: Lo que tu empresa debe considerar
Si la ley de la IA se aplica a tu empresa, podría significar ajustes significativos en tus estrategias de desarrollo e implementación de herramientas de Inteligencia Artificial.
Si tu empresa opera dentro de la UE o maneja datos de ciudadanos de la UE, debes cumplir. Por ello, tendrás que comprender en qué categoría o categorías de riesgo de IA se encuentra tu empresa y adaptarte en consecuencia.
Las aplicaciones de IA de alto riesgo requieren una evaluación rigurosa, asegurando la calidad de los datos, la transparencia, la supervisión humana y un registro sólido.
Es posible que debas realizar cambios operativos, como rediseñar los sistemas de IA para cumplir con los estándares, capacitar al personal en los requisitos de cumplimiento y establecer auditorías regulares y procesos de evaluación de riesgos.
El panorama de la regulación de IA es variado y está en constante evolución en todo el mundo. Por eso, comprender estas diferencias es fundamental para navegar por el complejo terreno del cumplimiento y la estrategia de IA.
Los expertos opinan
Uno de tus mayores desafíos puede ser el coste y el esfuerzo para el cumplimiento de la ley. Y es que adaptar los sistemas de IA existentes para cumplir con los nuevos estándares puede requerir de muchos recursos.
Además, el amplio alcance y la naturaleza en evolución de la ley pueden generar incertidumbres, lo que requiere que te mantengas informado sobre todas las novedades.
La Dra. Clare Walsh es la directora de educación en el Instituto de Analytics y una destacada voz académica en análisis de datos e inteligencia artificial.
En palabras de Claire para Sage Advice: «La ley pone de relieve el problema que tenemos con expertos técnicos y expertos en dominios, y la comunicación entre los dos grupos puede ser, como mucho, tensa y a veces completamente opuesta».
«La ley no prohíbe ninguna tecnología o uso en particular, pero requiere considerar las limitaciones y riesgos de una tecnología específica en un caso de uso específico».
«En otras palabras, necesitamos una mejor comunicación entre equipos multifuncionales que nunca. No es suficiente tener expertos trabajando de forma aislada. Todos debemos mejorar con los datos».
¿Deben preocuparse los equipos de contabilidad y finanzas por las nuevas leyes?
Clare Walsh dice que es poco probable que esta ley afecte de inmediato al trabajo contable y financiero, afirmando: «La mayor parte del trabajo contable ha consistido en llevar registros históricos y estará en las categorías de análisis de muy bajo o nulo riesgo».
Sin embargo, a medida que el trabajo se adapta a la influencia de la IA, más trabajo contable y financiero estará sujeto a las regulaciones de IA de la UE.
Clare continúa: «Cada vez más, el valor que los profesionales financieros aportan a su profesión se encuentra a través del análisis predictivo, y esto se encuentra dentro de la definición de enfoques basados en probabilidades que regula la Ley de la UE».
Clare añade «Necesitaremos profesionales financieros que puedan supervisar los procesos contables automatizados y aplicar algunas de sus habilidades de auditoría a las cuentas y al procesamiento de datos matemáticos».
«Estas tecnologías rara vez reemplazan por completo los procesos humanos, sino que requieren cierta adaptación del entorno de trabajo que los rodea».
7 consejos para ayudar a las empresas a prepararse y cumplir con la Ley de IA de la UE
Al abordar de manera proactiva los desafíos y los cambios que trae consigo la Ley de IA de la UE, puedes asegurar el cumplimiento y posicionar tu negocio para utilizar las tecnologías de IA de manera más responsable y efectiva.
1. Realiza una auditoría integral para saber cómo usas la IA
Evalúa tus sistemas y procesos de IA actuales para determinar cómo se alinean con la Ley de IA de la UE.
Identifica áreas que requieren cambios o mejoras para cumplir con los estándares de cumplimiento.
2. Desarrolla una estrategia de gestión de riesgos
Para aplicaciones de IA de alto riesgo, establece un marco robusto de gestión de riesgos. Incluye mecanismos de monitorización, informes y mitigación de riesgos asociados con los sistemas de IA.
Para aplicaciones de bajo riesgo, aún es crucial mantener la transparencia en sus operaciones y garantizar la precisión de la información que procesa.
Comunica claramente cómo funciona la IA y la naturaleza de los datos que maneja.
3. Invierte en capacitación y concienciación
Asegúrate de que tu personal esté bien informado sobre la Ley de IA de la UE y sus implicaciones.
Las sesiones de capacitación regular pueden ayudar a construir una cultura enfocada en el cumplimiento dentro de la organización.
4. Consulta a expertos en ética y cumplimiento de IA
Busca el asesoramiento de expertos en ética y cumplimiento de IA para navegar de manera efectiva el entorno regulatorio complejo.
Pueden proporcionar ideas sobre las mejores prácticas y ayudarte a mantenerte al tanto de los cambios regulatorios.
5. Fomenta la transparencia y la responsabilidad
Desarrolla políticas y procedimientos claros para la transparencia y la responsabilidad de la IA.
Mantén registros detallados de los procesos de toma de decisiones y los resultados de la IA.
6. Aprovecha la tecnología para el cumplimiento
Utiliza software y herramientas de gestión de cumplimiento generales y específicos de IA para agilizar y automatizar partes de tus procesos de cumplimiento, haciéndolos más eficientes y menos propensos a errores.
7. Mantente informado
Mantente al tanto de las actualizaciones de la ley y prepárate para adaptar tus estrategias de IA a medida que evoluciona el panorama regulatorio.
Comprender y cumplir con las regulaciones de la Ley de Inteligencia Artificial (IA) de la UE es esencial.
Sin embargo, también es una excelente oportunidad para establecer estándares que aseguren que estás utilizando la IA de manera responsable, lo que aumentará la confianza de los clientes y otras empresas.
La ley ofrece la oportunidad de verla como algo más que un obstáculo regulatorio.
Haz de ella tu hoja de ruta para una implementación innovadora y ética de la IA y mejora la transparencia y responsabilidad en tus operaciones financieras.
Utilizar la ley de esta manera podría ser una oportunidad para demostrar que tu negocio no solo se adapta al cambio, sino que lo impulsa.
Quizás uno de los sectores económicos que recibe
más impactos de su entorno es el financiero. Obligado, por ejemplo, a vigilar
múltiples aspectos como el estado de la credibilidad fiscal de su país de
origen. Una crisis de deuda soberana le afecta notablemente. También
incertidumbres políticas o electorales. Se comprobó en 2010-2012. Entonces
fueron mercados de capitales cerrados y una gran presión en las calificaciones
crediticias con el riesgo país en ascenso en aquellos momentos. La situación
ahora es muy distinta, más desahogada aparentemente. No obstante, este año
2024, con tantas elecciones relevantes —desde
las legislativas europeas a las americanas, pasando por muchas otras— con
probables cambios en las estrategias y prioridades políticas —la
sostenibilidad, en la que la banca juega un papel muy relevante—, será uno de
los principales ejes. Puede afectar al entorno financiero global y a su
regulación tanto doméstica como supranacional (como la de Basilea). Las
entidades financieras estarán alerta, junto a las tecnológicas y energéticas, de
los resultados de las votaciones. Otro ejemplo de esa trascendencia política es
comprobar cómo pocos sectores están tan bien representados en el Foro de Davos,
que se está celebrando esta semana, como el bancario, con significativa
representación española, botón de muestra de la importancia de su interacción
con la geopolítica internacional.
La evolución de la actividad económica, el empleo y la inflación es la cuestión de entorno que más afectará al negocio y resultados de los bancos. El debilitamiento del crecimiento económico en nuestro país en 2024 probablemente hará mella, tal vez solamente de un modo moderado, en el volumen de negocio nuevo, tanto en captación de ahorro como en concesión de créditos. Dependerá también de la evolución del precio del dinero, que seguirá siendo comparativamente elevado. El año comienza con un cierto repunte de la inflación, sobre todo por las retiradas de algunas de las ayudas por el encarecimiento de la energía y las tensiones en el mar Rojo, aún incipientes pero preocupantes. Está por ver la incidencia final de estos incidentes y si suponen realmente una escalada en el conflicto, pero ya están dando lugar a un aumento de los fletes. Eso sí, no se debe asumir que vaya a mimetizar el proceso inflacionario que se produjo en 2021-2022, mucho más global. No obstante, nos recuerda las numerosas vicisitudes que todavía quedan para llegar al nivel de referencia de la inflación para los bancos centrales (2%). Si el impacto final es solamente coyuntural sobre la inflación y esta sigue desacelerándose en los próximos meses, es probable que comencemos a ver las primeras bajadas de tipos antes de verano. Lo que ocurra con el euríbor en las próximas semanas revelará lo que el mercado haya estado descontando de la gravedad y persistencia del repunte en la inflación. Parece mantenerse como escenario más probable la bajada de tipos. Esa probable disminución de los costes financieros puede ayudar a que la morosidad permanezca bajo mínimos. Esta se ha comportado bien a pesar de la pandemia, la inflación y los conflictos bélicos, a diferencia de lo que pasó en la crisis financiera, donde una excesiva concentración en el mercado inmobiliario —en concreto a su burbuja— causó una muy elevada morosidad y una cascada de enormes pérdidas bancarias. Cuando el crédito tiene una razonable diversificación y no se han cometido excesos en su concesión ni errores de supervisión, los préstamos resisten bien, sobre todo si el mercado de trabajo también aguanta. Esto es lo que parece que ha sucedido desde 2020.
Aunque los tipos bajen finalmente, continuarán
elevados, pero el margen de intermediación de los bancos disminuirá algo en
2024 por la mayor remuneración de los depósitos y la tendencia a la baja de los
intereses del crédito. Eso sí, gracias a la morosidad bajo control y aunque
habrá inversiones tecnológicas, los resultados del conjunto de los bancos
mantendrán el buen tono de 2023, aunque difícilmente crecerán con respecto a
ese último año. El impacto del impuesto a los beneficios de la banca aminorará
ese montante, una mala noticia para incrementar reservas y para la
competitividad internacional de nuestra banca. Una cierta inconsistencia entre
el conjunto de políticas de los Gobiernos y agencias supervisoras, aun
reconociendo que ambas autoridades tienen misiones distintas: los reguladores
requieren mayores recursos propios y los Gobiernos, con estos impuestos, dañan
la capacidad interna de aumentar esa necesaria solvencia para permitir que
fluya adecuadamente el crédito.
Por último, 2024 será un año donde la tecnología nuevamente jugará un papel muy relevante en la estrategia bancaria. Las entidades financieras abrazaron la era digital hace más de 25 años. Como empresas en las que la información es la materia prima fundamental, han ido invirtiendo y apostando decididamente por las nuevas tecnologías desde entonces. Se ha llegado ahora a la nueva inteligencia artificial (IA) generativa, aún en sus inicios, pero con un potencial brutal para cambiar no solamente la forma de hacer banca, sino el conjunto de la economía y muchos usos sociales. En este año debemos ver ya algunos avances significativos en IA en banca, aunque quedará mucho potencial por delante. Tampoco se pueden olvidar los riesgos y cautelas, sobre todo en lo digital. Hay que planificar casi lo inimaginable (planing for the unplanned) para que la tecnología no tenga quiebras que nos lleven a un retroceso. Este año los ciberriesgos estarán nuevamente muy alto en las agendas. En suma, mucho potencial, pero mucho por hacer y cuidar.
Este artículo se publicó originalmente en el diario Cinco Días
2023 podría cerrar el ciclo de algunas de las políticas y estrategias económicas de los últimos tiempos. En primer lugar, de las reuniones de los bancos centrales de referencia de la pasada semana —Reserva Federal y Banco Central Europeo— se puede concluir que las subidas de tipos de interés han terminado por ahora, salvo que acontezca algo imprevisible que altere esa ruta monetaria. El escenario central apunta a que la inflación se ha moderado y la actividad económica se ha debilitado, pero sin grave impacto sobre el empleo ni dando lugar a una grave recesión. El marco financiero, tan endurecido en los dos últimos años, puede comenzar a aflojar el próximo, algo que puede venir bien ante las perspectivas más restrictivas de la política fiscal. El efecto neto debería ser positivo para la economía y confiemos que no retroalimente la inflación.
Por
otro lado, algunas de las estrategias económicas transversales más importantes
de los últimos años —transición energética y digitalización— pueden haber
cerrado un cierto ciclo y abierto otro, o dar paso a una cierta refundación del
alcance y objetivos. Respecto a la transición energética, hemos podido observar
esta semana, tras mucha sangre, sudor y lágrimas —venciendo enormes
resistencias— que se llegaba a un acuerdo en la reciente COP28 (Conferencia
sobre el Cambio Climático de este año) celebrada en Dubai. Se pacta la
transición “para abandonar los combustibles fósiles (petróleo, carbón y gas) en
los sistemas energéticos, de manera justa, ordenada y equitativa, acelerando la
acción en esta década crítica, a fin de lograr el cero neto para 2050″. Un
acuerdo decisivo, sin duda y con un potencial enorme para cambiar el paso a un
proceso de transformación de la economía global. Sin embargo, el proceso de
llevarlo a la práctica puede sufrir diferentes avatares. Por ejemplo, en junio
de 2024, se celebran elecciones europeas, donde uno de los temas centrales
puede ser el modelo de economía y de transición energética del Viejo Continente
a futuro. Hasta ahora, la UE —y su Parlamento— ha sido firme creyente de esa
transición, con un modelo de elevados costes y sin atajos —a diferencia de
otros países—, pero, dependiendo de los resultados electorales, se podría
cambiar —entiéndase demorar u obstaculizar— esa hoja de ruta energética, con
consecuencias económicas de gran calado.
Por último, en el ámbito de la digitalización, también la UE aprobó hace una semana el borrador de la primera regulación de Inteligencia Artificial (IA) del mundo, que aspira a impulsar la innovación y, al mismo tiempo, a garantizar que los sistemas de IA utilizados sean seguros y respeten los derechos fundamentales y valores europeos. Tiene que ser ratificado, pero si sale adelante, es clave alcanzar ese difícil equilibrio entre innovación y control de riesgos. Ojalá sea referencia en otras latitudes. Europa no puede quedarse atrás en el desarrollo de la IA como principal eje de crecimiento y competitividad del futuro, pero simultáneamente debe ser compatible con los derechos fundamentales y con riesgos adecuados. Vienen cambios de calado a corto y medio plazo.
Este artículo se publicó originalmente en el diario La Vanguardia.
Menudas semanas llevan Sam Altman y compañía. El fundador de ChatGPT y máximo ejecutivo de la empresa que lo gestiona, OpenAI, fue despedido el pasado 17 de noviembre por un fuerte desencuentro con su Consejo de Administración, acusado de falta de transparencia en sus declaraciones públicas sobre algunos proyectos de la empresa que maneja probablemente una de las principales herramientas tecnológicas del presente y del futuro. Tras un escarceo que casi le lleva a entrar en Microsoft, principal accionista de OpenAI, cinco días más tarde todo volvió al punto de partida y Sam Altman finalmente recuperó su puesto en ChatGPT. Se cambia, además, completamente al Consejo de OpenAI, que deberá, en primer lugar, resolver los problemas de gobernanza de la compañía. También reforzar su misión principal: asegurar que la inteligencia artificial (IA) sea segura para todos. No se puede olvidar que el Consejo de OpenAI no es uno al uso. No son los accionistas los que se sientan en el mismo, sino un conjunto de notables que supervisa el rumbo de la empresa así como las cuestiones de negocio y cómo hacerlas compatibles con la seguridad. La sensación de que OpenAI quería abrir demasiadas líneas de negocio a la vez —potencialmente arriesgando seguridad— generó el caos.
La estructura organizativa actual de OpenAI refleja estos problemas y conflictos de interés. Cuando se creó en 2015, se hizo sin ánimo de lucro, de ahí la peculiaridad de su Consejo de Administración, que vigila el progreso de una IA general que pudiera superar las capacidades de los seres humanos con todos sus peligros. Sin embargo, al tiempo, se dieron cuenta que, para poder desarrollar adecuadamente la tecnología, hacían falta inversiones voluminosas y para ello crearon una filial —esta sí, con ánimo de lucro— en la que Microsoft tomó un 49 por cien del capital (13 millardos de dólares). Ahí comenzó el conflicto de intereses (seguridad versus negocio). Esto será un problema siempre cuando no se adopta una visión de vigilancia adecuada, que no impida los avances en IA —y por tanto las mejoras aparejadas en productividad y aumento del bienestar—, pero a la vez, no exacerbe los riesgos que pueden quebrar muchas de las garantías en protección de datos y seguridad que nos hemos dado como sociedades avanzadas. Llevado al extremo, situaciones próximas a la ciencia ficción, con máquinas y robots superando el mando del control humano.
Por último, OpenAI exhibe el patrón de libre empresa y pocas normas de su país de origen (EEUU), con un enfoque de supervisión, próximo a la autorregulación, donde el Consejo de Administración no tiene el lucro como objetivo principal y, además, está compuesto por expertos o notables “buenos” que vigilan ChatGPT. Es un modelo excesivamente ingenuo y laxo en un mundo tan complejo como el actual, más aún ante la enorme potencia de la herramienta. No funcionará. Por ello, para evitar males mayores, la nueva IA necesita una regulación clara y muy definida, también en Estados Unidos aunque no les guste, que equilibre innovación y seguridad.
Este artículo se publicó originalmente en el diario La Vanguardia.
Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.