Tras la aprobación por parte del Parlamento Europeo de la primera ley de Inteligencia Artificial (IA) del mundo, será importante tener claro cuáles serán sus consecuencias en el entorno empresarial.
Aprobada el 13 de marzo de 2024, se trata de la primera propuesta legislativa sobre IA del mundo, por lo que aspira a convertirse en referente internacional.
La aplicación de la nueva ley de Inteligencia Artificial será gradual, hasta implantarse de manera definitiva en 2026.
Cuando hablamos de Inteligencia Artificial (IA) no estamos hablando solo sobre innovación, sino de una serie de herramientas que pueden suponer un impulso fundamental para los negocios.
Es por ello que la Unión Europea (UE) creyó en la necesidad de mejorar las condiciones para su desarrollo, estableciendo así una nueva ley. En este sentido, será importante que no lo veas solo como un conjunto de reglas y regulaciones; se trata de comprender cómo esta ley puede moldear tus estrategias de IAe inversiones ahora y en el futuro.
En este artículo, exploramos lo que la ley significa para ti, independientemente de si estás al mando de una startup o gestionando una empresa en crecimiento.
¿Qué es la Ley de IA de la Unión Europea?
La ley de IA de la Unión Europea es un marco legislativo diseñado para regular el uso y desarrollo de la Inteligencia Artificial dentro de la Unión Europea. Una iniciativa pionera, siendo la primera propuesta legislativa de estas características en proporcionar normas completas y transparentes para los sistemas de IA en todo el mundo.
Tener claro el uso de la IA, la protección de datos y la gestión del riesgo son aspectos relevantes para la planificación empresarial de tu negocio. Por eso, será importante que estés al tanto de la nueva legislación y que la veas como:
Un desafío: Para asegurarte de que tus proyectos impulsados por IA se ajusten a estas regulaciones.
Una oportunidad: Aunque todas las empresas deben cumplir las mismas normas, cómo lo hagas podría variar significativamente de otras. Ir más allá del cumplimiento y abrazar proactivamente los principios éticos y responsables de la IA podría diferenciar a tu negocio.
La opinión de los expertos
“Con la IA instalándose en el mainstream, existen grandes beneficios que pueden derivar de educar al público para generar confianza”, dijo Mark Brown, director general global de Digital Trust Consulting en BSI.
«Las organizaciones que tomen una visión a largo plazo pueden ver que la IA les permite mejorar su ciberseguridad, privacidad o el momento digital.”
En este artículo conocerás al detalle todo lo que necesitas saber sobre la Ley de IA de la Unión Europea.
¿Cuáles son los motivos de la entrada en vigor de la Ley de IA?
Impulsar la excelencia y la innovación tecnológica mientras se asegura la protección de los derechos humanos son algunos de los motivos principales de una ley de estas características.
Otro de los motivos es la naturaleza dual de la propia Inteligencia Artificial, con sus oportunidades y desafíos.
Oportunidades de la IA
La IA ofrece oportunidades sin precedentes para la innovación, eficiencia y resolución de problemas.
En cuanto a la innovación, competencia y propiedad intelectual, la UE busca fomentar un ambiente competitivo al animar a las empresas a invertir en investigación y desarrollo de tecnologías de IA.
Desafíos de la IA
La IA plantea riesgos y desafíos significativos, especialmente sin una supervisión adecuada.
La ley pretende el desarrollo de sistemas de IA que respeten la autonomía humana y prevengan daños. Su objetivo es crear un entorno seguro y confiable para la implementación de la IA, de modo que puedas gestionar los riesgos empresariales al tiempo que maximizas los beneficios.
Además, categoriza las aplicaciones de IA en función de su riesgo, que va desde inaceptable hasta mínimo, imponiendo los requisitos y las obligaciones legales correspondientes.
Otros aspectos destacados:
Privacidad y derechos personales
Una de las preocupaciones más apremiantes que aborda la ley es el potencial de los sistemas de IA para infringir la privacidad y los derechos personales.
La capacidad de la IA para procesar grandes cantidades de datos puede llevar a la vigilancia intrusiva o a decisiones sesgadas, lo que afecta desde las oportunidades laborales hasta el acceso a servicios.
Falta de transparencia
La falta de transparencia en los algoritmos de IA puede dificultar la comprensión de cómo toman sus decisiones, desafiando el principio de responsabilidad.
Autonomía de la IA
Existen preocupaciones éticas con respecto a la autonomía de los sistemas de IA.
A medida que la IA avanza, aumenta el riesgo de que estos sistemas tomen decisiones sin supervisión humana.
En escenarios donde las decisiones impulsadas por la IA pueden tener consecuencias perjudiciales, ¿quién es responsable?
¿Cuál es el alcance de la ley de la IA?
La ley de la IA tiene un alcance amplio, englobando diversos aspectos del desarrollo y despliegue de la IA dentro de su ámbito regulatorio.
Además, clasifica los sistemas de IA en diferentes niveles según sus posibles riesgos para la sociedad y los individuos.
Sistemas de IA de alto riesgo
La ley se centra principalmente en los sistemas de IA «de alto riesgo», reconociendo su potencial para tener un impacto significativo.
Estos incluyen tecnologías de IA utilizadas en infraestructuras críticas, educación, empleo, servicios esenciales públicos y privados, aplicación de la ley, migración y administración de justicia.
La ley tendrá requisitos de cumplimiento que te pedirán asegurar la calidad de los datos, la transparencia y la supervisión humana.
A medida que avanza la IA, el riesgo de que estos sistemas tomen decisiones sin supervisión humana aumenta, lo que podría llevar a resultados no deseados o dilemas éticos donde la lógica de la máquina entra en conflicto con los valores humanos y las normas sociales.
Por ejemplo, un sistema de IA utilizado para reclutamiento debe ser transparente en su proceso de toma de decisiones y evitar sesgos, asegurando un trato justo para todos los solicitantes de empleo.
Sistemas de IA de bajo riesgo
Las aplicaciones de IA consideradas de bajo riesgo, como videojuegos habilitados con IA o filtros de correo no deseado, están sujetas a requisitos regulatorios mínimos.
El objetivo aquí es fomentar la innovación asegurando que estas aplicaciones, aunque de bajo riesgo, aún mantengan la confianza y seguridad del usuario.
Además, podemos destacar otros aspectos importantes a tener en cuenta:
Prácticas prohibidas
La ley también identifica ciertas prácticas de IA como inaceptables debido a su amenaza clara para la seguridad, los medios de vida y los derechos.
Estas incluyen sistemas de IA que manipulan el comportamiento humano para eludir la libre voluntad de los usuarios (como deep fakes utilizados para difundir desinformación) y sistemas que permiten «puntuaciones sociales», donde los gobiernos utilizan la tecnología para evaluar y clasificar a los ciudadanos en función de su comportamiento, actividades y diversos criterios.
Obligaciones de transparencia
La ley exige transparencia para sistemas de IA específicos, como chatbots, para que los usuarios sepan que están interactuando con una IA.
Esto es crucial en contextos como el servicio al cliente, donde comprender si se está comunicando con un humano o una IA puede impactar significativamente la calidad de la interacción para el cliente.
¿Cuáles son las implicaciones prácticas de la ley de IA?
La ley enfatiza en la importancia de probar y comprender a fondo los sistemas de IA para mitigar los riesgos antes de desplegarlos al público.
Estándares de cumplimiento
Para las empresas que desarrollan o utilizan IA, esto significa seguir rigurosos estándares de cumplimiento, especialmente para aplicaciones de alto riesgo.
La industria de ciberseguridad ha respondido a la necesidad de un marco en el que los sistemas de IA generativa se desarrollen y operen bajo los estrictos principios de «Confianza Cero».
En lugar de asumir que todo dentro de la red de una organización es confiable, la Confianza Cero se basa en el principio de que nada (dentro o fuera de la red) debe ser autorizado por defecto.
La Confianza Cero requiere una estricta verificación de identidad para cada persona y dispositivo que intenta acceder a recursos en una red privada, sin importar si están dentro o fuera de la red.
Educación
La ley no exige explícitamente requisitos educativos o de capacitación específicos.
Sin embargo, implica la necesidad de conocimientos y comprensión adecuados de las tecnologías de IA para aquellos que las desarrollan, implementan y utilizan, especialmente en escenarios de alto riesgo.
Para Tim Freestone, director de marketing de Kiteworks: «Los principios de IA generativa de Confianza Cero (ZTGAI) garantizarían el cumplimiento del Reglamento de IA de la UE al exigir autenticación rigurosa del usuario, verificación de integridad de datos y monitoreo continuo del proceso».
Ley de IA de la UE: Lo que tu empresa debe considerar
Si la ley de la IA se aplica a tu empresa, podría significar ajustes significativos en tus estrategias de desarrollo e implementación de herramientas de Inteligencia Artificial.
Si tu empresa opera dentro de la UE o maneja datos de ciudadanos de la UE, debes cumplir. Por ello, tendrás que comprender en qué categoría o categorías de riesgo de IA se encuentra tu empresa y adaptarte en consecuencia.
Las aplicaciones de IA de alto riesgo requieren una evaluación rigurosa, asegurando la calidad de los datos, la transparencia, la supervisión humana y un registro sólido.
Es posible que debas realizar cambios operativos, como rediseñar los sistemas de IA para cumplir con los estándares, capacitar al personal en los requisitos de cumplimiento y establecer auditorías regulares y procesos de evaluación de riesgos.
El panorama de la regulación de IA es variado y está en constante evolución en todo el mundo. Por eso, comprender estas diferencias es fundamental para navegar por el complejo terreno del cumplimiento y la estrategia de IA.
Los expertos opinan
Uno de tus mayores desafíos puede ser el coste y el esfuerzo para el cumplimiento de la ley. Y es que adaptar los sistemas de IA existentes para cumplir con los nuevos estándares puede requerir de muchos recursos.
Además, el amplio alcance y la naturaleza en evolución de la ley pueden generar incertidumbres, lo que requiere que te mantengas informado sobre todas las novedades.
La Dra. Clare Walsh es la directora de educación en el Instituto de Analytics y una destacada voz académica en análisis de datos e inteligencia artificial.
En palabras de Claire para Sage Advice: «La ley pone de relieve el problema que tenemos con expertos técnicos y expertos en dominios, y la comunicación entre los dos grupos puede ser, como mucho, tensa y a veces completamente opuesta».
«La ley no prohíbe ninguna tecnología o uso en particular, pero requiere considerar las limitaciones y riesgos de una tecnología específica en un caso de uso específico».
«En otras palabras, necesitamos una mejor comunicación entre equipos multifuncionales que nunca. No es suficiente tener expertos trabajando de forma aislada. Todos debemos mejorar con los datos».
¿Deben preocuparse los equipos de contabilidad y finanzas por las nuevas leyes?
Clare Walsh dice que es poco probable que esta ley afecte de inmediato al trabajo contable y financiero, afirmando: «La mayor parte del trabajo contable ha consistido en llevar registros históricos y estará en las categorías de análisis de muy bajo o nulo riesgo».
Sin embargo, a medida que el trabajo se adapta a la influencia de la IA, más trabajo contable y financiero estará sujeto a las regulaciones de IA de la UE.
Clare continúa: «Cada vez más, el valor que los profesionales financieros aportan a su profesión se encuentra a través del análisis predictivo, y esto se encuentra dentro de la definición de enfoques basados en probabilidades que regula la Ley de la UE».
Clare añade «Necesitaremos profesionales financieros que puedan supervisar los procesos contables automatizados y aplicar algunas de sus habilidades de auditoría a las cuentas y al procesamiento de datos matemáticos».
«Estas tecnologías rara vez reemplazan por completo los procesos humanos, sino que requieren cierta adaptación del entorno de trabajo que los rodea».
7 consejos para ayudar a las empresas a prepararse y cumplir con la Ley de IA de la UE
Al abordar de manera proactiva los desafíos y los cambios que trae consigo la Ley de IA de la UE, puedes asegurar el cumplimiento y posicionar tu negocio para utilizar las tecnologías de IA de manera más responsable y efectiva.
1. Realiza una auditoría integral para saber cómo usas la IA
Evalúa tus sistemas y procesos de IA actuales para determinar cómo se alinean con la Ley de IA de la UE.
Identifica áreas que requieren cambios o mejoras para cumplir con los estándares de cumplimiento.
2. Desarrolla una estrategia de gestión de riesgos
Para aplicaciones de IA de alto riesgo, establece un marco robusto de gestión de riesgos. Incluye mecanismos de monitorización, informes y mitigación de riesgos asociados con los sistemas de IA.
Para aplicaciones de bajo riesgo, aún es crucial mantener la transparencia en sus operaciones y garantizar la precisión de la información que procesa.
Comunica claramente cómo funciona la IA y la naturaleza de los datos que maneja.
3. Invierte en capacitación y concienciación
Asegúrate de que tu personal esté bien informado sobre la Ley de IA de la UE y sus implicaciones.
Las sesiones de capacitación regular pueden ayudar a construir una cultura enfocada en el cumplimiento dentro de la organización.
4. Consulta a expertos en ética y cumplimiento de IA
Busca el asesoramiento de expertos en ética y cumplimiento de IA para navegar de manera efectiva el entorno regulatorio complejo.
Pueden proporcionar ideas sobre las mejores prácticas y ayudarte a mantenerte al tanto de los cambios regulatorios.
5. Fomenta la transparencia y la responsabilidad
Desarrolla políticas y procedimientos claros para la transparencia y la responsabilidad de la IA.
Mantén registros detallados de los procesos de toma de decisiones y los resultados de la IA.
6. Aprovecha la tecnología para el cumplimiento
Utiliza software y herramientas de gestión de cumplimiento generales y específicos de IA para agilizar y automatizar partes de tus procesos de cumplimiento, haciéndolos más eficientes y menos propensos a errores.
7. Mantente informado
Mantente al tanto de las actualizaciones de la ley y prepárate para adaptar tus estrategias de IA a medida que evoluciona el panorama regulatorio.
Comprender y cumplir con las regulaciones de la Ley de Inteligencia Artificial (IA) de la UE es esencial.
Sin embargo, también es una excelente oportunidad para establecer estándares que aseguren que estás utilizando la IA de manera responsable, lo que aumentará la confianza de los clientes y otras empresas.
La ley ofrece la oportunidad de verla como algo más que un obstáculo regulatorio.
Haz de ella tu hoja de ruta para una implementación innovadora y ética de la IA y mejora la transparencia y responsabilidad en tus operaciones financieras.
Utilizar la ley de esta manera podría ser una oportunidad para demostrar que tu negocio no solo se adapta al cambio, sino que lo impulsa.
Quizás uno de los sectores económicos que recibe
más impactos de su entorno es el financiero. Obligado, por ejemplo, a vigilar
múltiples aspectos como el estado de la credibilidad fiscal de su país de
origen. Una crisis de deuda soberana le afecta notablemente. También
incertidumbres políticas o electorales. Se comprobó en 2010-2012. Entonces
fueron mercados de capitales cerrados y una gran presión en las calificaciones
crediticias con el riesgo país en ascenso en aquellos momentos. La situación
ahora es muy distinta, más desahogada aparentemente. No obstante, este año
2024, con tantas elecciones relevantes —desde
las legislativas europeas a las americanas, pasando por muchas otras— con
probables cambios en las estrategias y prioridades políticas —la
sostenibilidad, en la que la banca juega un papel muy relevante—, será uno de
los principales ejes. Puede afectar al entorno financiero global y a su
regulación tanto doméstica como supranacional (como la de Basilea). Las
entidades financieras estarán alerta, junto a las tecnológicas y energéticas, de
los resultados de las votaciones. Otro ejemplo de esa trascendencia política es
comprobar cómo pocos sectores están tan bien representados en el Foro de Davos,
que se está celebrando esta semana, como el bancario, con significativa
representación española, botón de muestra de la importancia de su interacción
con la geopolítica internacional.
La evolución de la actividad económica, el empleo y la inflación es la cuestión de entorno que más afectará al negocio y resultados de los bancos. El debilitamiento del crecimiento económico en nuestro país en 2024 probablemente hará mella, tal vez solamente de un modo moderado, en el volumen de negocio nuevo, tanto en captación de ahorro como en concesión de créditos. Dependerá también de la evolución del precio del dinero, que seguirá siendo comparativamente elevado. El año comienza con un cierto repunte de la inflación, sobre todo por las retiradas de algunas de las ayudas por el encarecimiento de la energía y las tensiones en el mar Rojo, aún incipientes pero preocupantes. Está por ver la incidencia final de estos incidentes y si suponen realmente una escalada en el conflicto, pero ya están dando lugar a un aumento de los fletes. Eso sí, no se debe asumir que vaya a mimetizar el proceso inflacionario que se produjo en 2021-2022, mucho más global. No obstante, nos recuerda las numerosas vicisitudes que todavía quedan para llegar al nivel de referencia de la inflación para los bancos centrales (2%). Si el impacto final es solamente coyuntural sobre la inflación y esta sigue desacelerándose en los próximos meses, es probable que comencemos a ver las primeras bajadas de tipos antes de verano. Lo que ocurra con el euríbor en las próximas semanas revelará lo que el mercado haya estado descontando de la gravedad y persistencia del repunte en la inflación. Parece mantenerse como escenario más probable la bajada de tipos. Esa probable disminución de los costes financieros puede ayudar a que la morosidad permanezca bajo mínimos. Esta se ha comportado bien a pesar de la pandemia, la inflación y los conflictos bélicos, a diferencia de lo que pasó en la crisis financiera, donde una excesiva concentración en el mercado inmobiliario —en concreto a su burbuja— causó una muy elevada morosidad y una cascada de enormes pérdidas bancarias. Cuando el crédito tiene una razonable diversificación y no se han cometido excesos en su concesión ni errores de supervisión, los préstamos resisten bien, sobre todo si el mercado de trabajo también aguanta. Esto es lo que parece que ha sucedido desde 2020.
Aunque los tipos bajen finalmente, continuarán
elevados, pero el margen de intermediación de los bancos disminuirá algo en
2024 por la mayor remuneración de los depósitos y la tendencia a la baja de los
intereses del crédito. Eso sí, gracias a la morosidad bajo control y aunque
habrá inversiones tecnológicas, los resultados del conjunto de los bancos
mantendrán el buen tono de 2023, aunque difícilmente crecerán con respecto a
ese último año. El impacto del impuesto a los beneficios de la banca aminorará
ese montante, una mala noticia para incrementar reservas y para la
competitividad internacional de nuestra banca. Una cierta inconsistencia entre
el conjunto de políticas de los Gobiernos y agencias supervisoras, aun
reconociendo que ambas autoridades tienen misiones distintas: los reguladores
requieren mayores recursos propios y los Gobiernos, con estos impuestos, dañan
la capacidad interna de aumentar esa necesaria solvencia para permitir que
fluya adecuadamente el crédito.
Por último, 2024 será un año donde la tecnología nuevamente jugará un papel muy relevante en la estrategia bancaria. Las entidades financieras abrazaron la era digital hace más de 25 años. Como empresas en las que la información es la materia prima fundamental, han ido invirtiendo y apostando decididamente por las nuevas tecnologías desde entonces. Se ha llegado ahora a la nueva inteligencia artificial (IA) generativa, aún en sus inicios, pero con un potencial brutal para cambiar no solamente la forma de hacer banca, sino el conjunto de la economía y muchos usos sociales. En este año debemos ver ya algunos avances significativos en IA en banca, aunque quedará mucho potencial por delante. Tampoco se pueden olvidar los riesgos y cautelas, sobre todo en lo digital. Hay que planificar casi lo inimaginable (planing for the unplanned) para que la tecnología no tenga quiebras que nos lleven a un retroceso. Este año los ciberriesgos estarán nuevamente muy alto en las agendas. En suma, mucho potencial, pero mucho por hacer y cuidar.
Este artículo se publicó originalmente en el diario Cinco Días
2023 podría cerrar el ciclo de algunas de las políticas y estrategias económicas de los últimos tiempos. En primer lugar, de las reuniones de los bancos centrales de referencia de la pasada semana —Reserva Federal y Banco Central Europeo— se puede concluir que las subidas de tipos de interés han terminado por ahora, salvo que acontezca algo imprevisible que altere esa ruta monetaria. El escenario central apunta a que la inflación se ha moderado y la actividad económica se ha debilitado, pero sin grave impacto sobre el empleo ni dando lugar a una grave recesión. El marco financiero, tan endurecido en los dos últimos años, puede comenzar a aflojar el próximo, algo que puede venir bien ante las perspectivas más restrictivas de la política fiscal. El efecto neto debería ser positivo para la economía y confiemos que no retroalimente la inflación.
Por
otro lado, algunas de las estrategias económicas transversales más importantes
de los últimos años —transición energética y digitalización— pueden haber
cerrado un cierto ciclo y abierto otro, o dar paso a una cierta refundación del
alcance y objetivos. Respecto a la transición energética, hemos podido observar
esta semana, tras mucha sangre, sudor y lágrimas —venciendo enormes
resistencias— que se llegaba a un acuerdo en la reciente COP28 (Conferencia
sobre el Cambio Climático de este año) celebrada en Dubai. Se pacta la
transición “para abandonar los combustibles fósiles (petróleo, carbón y gas) en
los sistemas energéticos, de manera justa, ordenada y equitativa, acelerando la
acción en esta década crítica, a fin de lograr el cero neto para 2050″. Un
acuerdo decisivo, sin duda y con un potencial enorme para cambiar el paso a un
proceso de transformación de la economía global. Sin embargo, el proceso de
llevarlo a la práctica puede sufrir diferentes avatares. Por ejemplo, en junio
de 2024, se celebran elecciones europeas, donde uno de los temas centrales
puede ser el modelo de economía y de transición energética del Viejo Continente
a futuro. Hasta ahora, la UE —y su Parlamento— ha sido firme creyente de esa
transición, con un modelo de elevados costes y sin atajos —a diferencia de
otros países—, pero, dependiendo de los resultados electorales, se podría
cambiar —entiéndase demorar u obstaculizar— esa hoja de ruta energética, con
consecuencias económicas de gran calado.
Por último, en el ámbito de la digitalización, también la UE aprobó hace una semana el borrador de la primera regulación de Inteligencia Artificial (IA) del mundo, que aspira a impulsar la innovación y, al mismo tiempo, a garantizar que los sistemas de IA utilizados sean seguros y respeten los derechos fundamentales y valores europeos. Tiene que ser ratificado, pero si sale adelante, es clave alcanzar ese difícil equilibrio entre innovación y control de riesgos. Ojalá sea referencia en otras latitudes. Europa no puede quedarse atrás en el desarrollo de la IA como principal eje de crecimiento y competitividad del futuro, pero simultáneamente debe ser compatible con los derechos fundamentales y con riesgos adecuados. Vienen cambios de calado a corto y medio plazo.
Este artículo se publicó originalmente en el diario La Vanguardia.
Menudas semanas llevan Sam Altman y compañía. El fundador de ChatGPT y máximo ejecutivo de la empresa que lo gestiona, OpenAI, fue despedido el pasado 17 de noviembre por un fuerte desencuentro con su Consejo de Administración, acusado de falta de transparencia en sus declaraciones públicas sobre algunos proyectos de la empresa que maneja probablemente una de las principales herramientas tecnológicas del presente y del futuro. Tras un escarceo que casi le lleva a entrar en Microsoft, principal accionista de OpenAI, cinco días más tarde todo volvió al punto de partida y Sam Altman finalmente recuperó su puesto en ChatGPT. Se cambia, además, completamente al Consejo de OpenAI, que deberá, en primer lugar, resolver los problemas de gobernanza de la compañía. También reforzar su misión principal: asegurar que la inteligencia artificial (IA) sea segura para todos. No se puede olvidar que el Consejo de OpenAI no es uno al uso. No son los accionistas los que se sientan en el mismo, sino un conjunto de notables que supervisa el rumbo de la empresa así como las cuestiones de negocio y cómo hacerlas compatibles con la seguridad. La sensación de que OpenAI quería abrir demasiadas líneas de negocio a la vez —potencialmente arriesgando seguridad— generó el caos.
La estructura organizativa actual de OpenAI refleja estos problemas y conflictos de interés. Cuando se creó en 2015, se hizo sin ánimo de lucro, de ahí la peculiaridad de su Consejo de Administración, que vigila el progreso de una IA general que pudiera superar las capacidades de los seres humanos con todos sus peligros. Sin embargo, al tiempo, se dieron cuenta que, para poder desarrollar adecuadamente la tecnología, hacían falta inversiones voluminosas y para ello crearon una filial —esta sí, con ánimo de lucro— en la que Microsoft tomó un 49 por cien del capital (13 millardos de dólares). Ahí comenzó el conflicto de intereses (seguridad versus negocio). Esto será un problema siempre cuando no se adopta una visión de vigilancia adecuada, que no impida los avances en IA —y por tanto las mejoras aparejadas en productividad y aumento del bienestar—, pero a la vez, no exacerbe los riesgos que pueden quebrar muchas de las garantías en protección de datos y seguridad que nos hemos dado como sociedades avanzadas. Llevado al extremo, situaciones próximas a la ciencia ficción, con máquinas y robots superando el mando del control humano.
Por último, OpenAI exhibe el patrón de libre empresa y pocas normas de su país de origen (EEUU), con un enfoque de supervisión, próximo a la autorregulación, donde el Consejo de Administración no tiene el lucro como objetivo principal y, además, está compuesto por expertos o notables “buenos” que vigilan ChatGPT. Es un modelo excesivamente ingenuo y laxo en un mundo tan complejo como el actual, más aún ante la enorme potencia de la herramienta. No funcionará. Por ello, para evitar males mayores, la nueva IA necesita una regulación clara y muy definida, también en Estados Unidos aunque no les guste, que equilibre innovación y seguridad.
Este artículo se publicó originalmente en el diario La Vanguardia.
En la era de los criptoactivos, pagos contactless y la inteligencia artificial generativa, donde cada vez hay más ciudadanos que empiezan a creer que habrá monedas digitales públicas y las plataformas digitales lo dominan todo, ¿qué papel puede jugar la intermediación bancaria? Muchas entidades financieras pueden sentirse como ese tío que intenta seguirle el paso a sus sobrinos más jóvenes en la pista de baile. Sin embargo, ¿y si en vez de seguirles el paso, marcara el ritmo? Hace unos años parecía inevitable que buena parte del negocio de los bancos estaba seriamente amenazada —con sus consiguientes temores— por las grandes tecnológicas. Posteriormente, entre las amenazas de presión regulatoria a las bigtech y esa secular resistencia de las entidades financieras a lo largo de la historia, esos miedos han desaparecido y la cooperación entre bancos y tecnológicas se ha abierto como la vía más factible. Ahora, la inteligencia artificial y el dinero digital (incluidas las monedas digitales de bancos centrales) parecen definir un nuevo horizonte. Esto sucede en un mundo financiero que ha sido testigo de cambios radicales en las últimas décadas. La tecnología ha dejado una huella imborrable en el paisaje bancario, desafiando y remodelando prácticas antiguas. La banca, que nunca fue resistente a la disrupción y que se siente más cómoda como pionera en el cambio, ahora está en una carrera sin precedentes por la innovación.
Nos guste o no, Estados Unidos lleva el liderazgo en este punto. Los esfuerzos recientes de grandes bancos como JPMorgan Chase, Bank of America y Wells Fargo para lanzar Paze, una cartera móvil, reflejan la urgencia de las entidades bancarias para retener a sus clientes en un entorno digital en rápida evolución. Las carteras digitales no son una novedad, pero con gigantes tecnológicos como Apple y Google adentrándose en el ámbito financiero, los bancos se ven obligados a innovar. Así pasó también en España con Bizum —historia de éxito del sector financiero español— y las iniciativas cooperativas tanto intrasectoriales como intersectoriales se prodigan. Los bancos compiten, pero también buscan alianzas con fintech. Estas alianzas parecen ser una estrategia clave para enfrentar a las grandes tecnológicas y presentarse en la mesa de negociación para la cooperación con unas cartas mejor repartidas. Sin embargo, estos acuerdos están siendo observados con lupa por los reguladores, preocupados por los riesgos potenciales que podrían representar para el sistema bancario en general.
A pesar de estas preocupaciones, la tendencia hacia la asociación es evidente. Las fintech ofrecen soluciones ágiles y centradas en el cliente, algo que, para muchos bancos tradicionales con estructuras más rígidas, a menudo es desafiante. La combinación de la confianza y la estabilidad de los bancos tradicionales con la innovación y flexibilidad de las fintech tiene el potencial de ofrecer lo mejor de ambos mundos. En este punto surge, además, un nuevo papel para la inteligencia artificial (IA). Está siendo crucial en la transformación del sector bancario. A pesar de las predicciones iniciales, que sugerían que la IA podría reemplazar una proporción significativa de trabajos bancarios, la cabezona realidad tiene muchos más matices. La IA se está utilizando más para mejorar la eficiencia y la experiencia del cliente que para reemplazar empleos. Los bancos están aprovechando la IA para analizar enormes cantidades de datos, predecir tendencias, optimizar operaciones y mejorar la experiencia del cliente. Además, la IA tiene el potencial de ayudar en áreas como el cumplimiento normativo y la detección de fraudes.
La convergencia de tecnologías disruptivas —como carteras digitales, inteligencia artificial— está configurando un nuevo paradigma para el sector bancario. En lugar de ver a la tecnología como una amenaza, los bancos la están abrazando (ahora más que nunca) como una oportunidad. Avanzan hacia un modelo basado en plataformas, pero, eso sí, hay que establecer matices y fijar el alcance de ese campo de expansión. Hace un año todavía estaba muy en boga esa concepción nueva de la banca como un one-stop shopping, refiriéndose al modelo de negocio en el cual un banco ofrece una amplia gama de servicios financieros, funcionando como un supermercado bancario para sus clientes, principalmente con oferta digital. Sin embargo, con los retos actuales del sector, particularmente el aumento de los tipos de interés y sus implicaciones, este modelo está siendo reconsiderado. Algunos bancos en Estados Unidos están replanteando o, al menos, matizando, ese modelo para no desnaturalizarse demasiado. De alguna manera, como si se tratara de un equipo de fútbol moderno, los bancos no deben solo ser capaces de jugar bien con un sistema, sino ser capaces de cambiarlo en función del rival y, lo que es más importante, de las condiciones externas.
Relacionado con lo anterior está la idea de que hay que alegrarse por las posibilidades de la tecnología, pero también recordar para qué está la banca y otros papeles importantes sociales que desempeña. Ahora, por ejemplo, en Estados Unidos, las entidades financieras enfrentan una creciente presión para abordar la diversidad, equidad e inclusión (DEI) tanto en su fuerza laboral como en las comunidades que sirven. La Asociación Americana de Banca (ABA) está ayudando a los bancos a mejorar sus iniciativas DEI, ya que equipos diversos conducen a mejores resultados. Han implementado, entre otras, formación contra sesgos inconscientes (que puede ser derivados del uso de la IA) y promoción de liderazgo inclusivo. Por todo ello, la tecnología será clave en el futuro del sector financiero, pero no será, ni mucho menos, todo.
Este artículo se publicó originalmente en el diario Cinco Días
El verdadero potencial de la digitalización en todas las esferas de la economía y la sociedad probablemente aún está por descubrirse. Será un proceso dinámico que llevará tiempo —y de hecho evolucionará con los años— aunque habrá momentos de fuerte aceleración y vértigo, como podría ser el actual con la aparición de la nueva inteligencia artificial, la generativa, en el que el pionero ante la opinión pública ha sido ChatGPT, pero otros están siguiendo, como Bard (Google) o AutoGPT. En todo caso, las implicaciones de la intensa digitalización para la industria de servicios financieros han sido ya abundantes, pero todavía quedan infinidad más por venir, al tratarse de una de las actividades donde la información juega un papel central. Esto afecta a personas, empresas y gobiernos y es una cuestión geopolítica de primer nivel.
Lo digital también tiene notables riesgos, que inadecuadamente vigilados, podrían generar considerables perjuicios de todo tipo y truncar un proceso —que parece imparable-— que puede facilitar grandes beneficios en materia de productividad y bienestar. La supervisión de esos riesgos es crítica, particularmente en el sector financiero, donde se halla depositado gran parte del ahorro de la sociedad y donde su estabilidad es determinante para el buen funcionamiento del mercado de crédito. Todos reconocemos como objetivo primordial de estabilidad financiera evitar crisis bancarias. Sin embargo, tiene más propósitos, trascendentales también para el buen funcionamiento de la actividad económica, como es ofrecer crédito suficiente y solvente. Y, en este sentido, la digitalización debe hacer más eficiente ese proceso a la vez que no acrecienta riesgos de estabilidad financiera.
La crisis que ha sacudido a un determinado grupo de bancos medianos estadounidenses —y que no puede considerarse cerrada aún—, como Silicon Valley Bank o First Republic Bank, entre otros, no es ajena a los riesgos de la digitalización, cuando se cometen determinados errores en la gestión interna o en la supervisión externa de las entidades. En primer lugar, estos bancos han estado expuestos a un segmento de negocio que adolecía de sobrevaloración y la corrección les ha pillado sin otros sectores en los que apoyarse. No obstante, es tanto o más importante que el modelo de negocio y la gestión de liquidez y riesgos de activo de esos bancos dejaba mucho que desear. El impacto de la existencia de abundantes depósitos digitales —con gran facilidad de movilidad— y los rumores (no siempre fundamentados) de redes sociales jugó un papel significativo en los problemas que sucedieron. Tampoco ayudó ciertamente la reacción inicial del supervisor, la Reserva Federal. Sin embargo, en el entorno digital, las exigencias de buena gestión, buena gobernanza y comunicación exterior y solvencia suficiente se hacen aún mucho mayores, por la facilidad que potencialmente existe en muchas jurisdicciones de esos trasvases rápidos de depósitos de unos bancos a otros. No significa ello que lo acontecido en Estados Unidos vaya a ocurrir necesariamente en todos los países, algo improbable a día de hoy. Sin embargo, se haría mal en considerar que este es un problema exclusivamente de ese país y no tomar las medidas oportunas por un lado en la gestión de las entidades y por otro, en la supervisión de las mismas, para evitar situaciones de inestabilidad futuras, conforme la digitalización progrese y haga más eficiente y rápido el proceso financiero, pero también desafiado por nuevos riesgos. Un trabajo reciente de los economistas Naz Koont, Tano Santos y Luigi Zingales titulado “Destabilizing Digital ‘Bank Walks’” muestra con datos del segundo trimestre de 2022 que las retiradas de depósitos fueron significativamente superiores en bancos digitales que en bancos tradicionales en estados Unidos. También ponen de relieve que la retirada de depósitos fue más voluminosa en territorios donde el uso de Internet (y de lo digital) es mayor. Esto nos lleva a reflexionar sobre el valor de la tangibilidad para el cliente y de qué nivel de confianza se deposita en un banco puramente virtual frente a otro con servicios online pero con relaciones presenciales.
Es en ese contexto, donde el futuro digital requiere nuevos modelos de gestión de la liquidez y riesgos y nuevas perspectivas de la supervisión. Es un debate importante para los próximos años, donde la digitalización progresará, pero será necesario que produzca seguridad y estabilidad financiera. En este contexto, aparece oportuno plantear que cualquier iniciativa importante como las monedas digitales de los bancos centrales considere esos riesgos de estabilidad financiera, no solo para evitar problemas en entidades concretas sino también para garantizar que el mercado del crédito funcione correctamente. Un contexto en el que la moneda digital (sea el euro o dólar o cualquier otra) permita capacidades de depósitos privados en el banco central es un entorno que puede generar graves disfunciones en el sector bancario tradicional si no garantiza un adecuado funcionamiento del mercado de crédito, donde, hoy por hoy y en el futuro previsible, los bancos van a seguir jugando un papel central. Y estos precisan de una base sólida de depósitos, remunerada adecuadamente, para financiar ese crédito necesario. La existencia de una cuenta “libre de riesgos” que permitiera depósitos significativos en el banco central, una idea en algún momento planteada como hipótesis, podría generar disfuncionales notables en el funcionamiento del mercado de crédito y en la estabilidad financiera. El efectivo sigue teniendo un papel y tener una diversidad de opciones de pago es importante, útil y más seguro. Las monedas digitales son un gran avance, sin duda, pero hay que considerar las implicaciones en un sentido amplio para los mercados financieros y la economía, en la letra pequeña —y no tan pequeña— de esos proyectos.
Este artículo se publicó originalmente en el diario Cinco Días
Tecnologías como la Inteligencia Artificial en las empresas (IA) empiezan a ocupar un papel destacado para ayudar a conseguir los objetivos fijados por la Agenda 2030 en materia de cambio climático.
El 87% de los empresarios cree que la inteligencia artificial es una herramienta esencial contra el cambio climático.
La inteligencia artificial se puede utilizar para prevenir los riesgos asociados al cambio climático.
La Inteligencia Artificial se ha convertido en indispensable para la sociedad. Es una tecnología que facilita el trabajo en las empresas y en el hogar. Pero ¿sabías que también puede ayudar a las empresas a luchar contra el cambio climático?
Actualmente, esta tecnología se alza como un elemento clave para combatir el cambio climático y ayudar a la sociedad a conseguir los objetivos de la Agenda 2030 de las Naciones Unidas. Ya hay decenas de empresas que la utilizan para reducir su huella de carbono y contribuir a mejorar el medio ambiente.
La IA reduce las emisiones a la atmósfera
La IA es una herramienta esencial en la lucha contra el cambio climático. Así lo cree el 87% de los directores generales del sector público y privado con poder de decisión en materia de IA y clima. El dato se refleja en un informe elaborado por BCG Climate AI en 2022.
Crece, además, el número de empresarios que confía en la inteligencia artificial para reducir la emisión de gases a la atmósfera. Ya hay un 57% de directivos que confía en este poder de la inteligencia artificial. A eso habría que añadirle que el 61% de los empresarios considera que la analítica avanzada es fundamental para evitar el cambio climático.
En este contexto, España se sitúa como el segundo país donde más directivos plantean aplicar IA en sus proyectos de sostenibilidad. La Península estaría cinco puntos por encima de Francia y diecisiete por encima de Alemania en este ámbito.
Sin embargo, la realidad es que, a nivel mundial, solamente 4 de cada 10 organizaciones considera el uso de la IA para alcanzar sus objetivos climáticos.
Planes para mitigar el cambio climático
Hay muchas formas en las que la Inteligencia Artificial en las empresas puede contribuir a la mitigación del cambio climático. Una de ellas es mediante la eficiencia energética o la reducción de las emisiones del transporte, la agricultura y la industria.
La IA también ayuda a la sociedad a adaptarse a los impactos del cambio climático. Para ello proporciona herramientas de apoyo a la toma de decisiones. Numerosas organizaciones buscan la manera de ser más eficientes en contextos difíciles, como puede ser en situaciones de sequía o de carestía energética. Y en este punto la IA es un elemento clave.
Por otro lado, las industrias y sectores que tienen un impacto ambiental negativo emplean la IA para reducir sus gases de efecto invernadero. A esto hay que añadir el empleo de la inteligencia artificial para diseñar productos que reduzcan desechos y emisiones en la creación de prototipos. O la reducción del desperdicio alimentario al conseguir mejorar la planificación de la demanda.
Además, la IA puede desempeñar un papel fundamental en el aumento de la resistencia a los efectos del cambio climático ayudando a identificar los factores de riesgo y a elaborar planes para mitigarlos.
Ventajas de usar la IA contra el cambio climático
1. Uso eficiente de la energía
Junto a la IA, el machine learning se emplea en las empresas para hacer un uso más eficiente de los recursos energéticos. Sistemas como el Deepmind AI de Google ayudan a las empresas que recurren a la energía eólica a predecir los patrones de viento. Así pueden optimizar el uso de este recurso para compensar las carencias energéticas que puedan surgir.
Asimismo, la Inteligencia Artificial proporciona una base de decisión sólida cuando la compañía necesita saber a qué fuentes de energía renovables recurrir para desarrollar su actividad.
2. Gestión de residuos
Gestionar eficientemente los residuos que genera la empresa es uno de los problemas a los que se enfrentan muchas organizaciones. Un mal manejo de estos puede derivar en una mayor emisión de gases de efecto invernadero.
Sin embargo, la Inteligencia Artificial es clave en la eficiencia en la gestión de residuos y aumenta las tasas de reciclaje. La IA se emplea para separar residuos en las empresas y puede avisar sobre la eficacia en la gestión de la basura que se genera a diario.
3. Transporte eficiente
Hay empresas que ponen a disposición de sus trabajadores sistemas de transporte colectivo. En este caso la tecnología ofrece un transporte eficiente y respetuoso con el medio ambiente como son los vehículos eléctricos.
A través de la IA se puede saber el impacto que genera este transporte en el entorno y contribuir a mitigarlo. Además, permite realizar predicciones que mejoran la productividad del empleado al dar a conocer el tiempo estimado de viaje o cuándo llegará el siguiente vehículo eléctrico.
4. Previsión de riesgos
Para anticiparse a los posibles impactos del cambio climático hay que ser capaces de prever las tendencias localizadas a largo plazo.
Por ejemplo, ¿cuál es la probabilidad de que se produzca una sequía importante en una región concreta en los próximos 10 años? ¿Cuáles son los impactos potenciales de esa sequía en la agricultura, el suministro de agua y la salud humana? La IA responde a estas preguntas analizando los datos históricos y prediciendo las tendencias futuras.
5. Sistemas de atención temprana
La IA ayuda a crear sistemas de alerta temprana que avisen sobre situaciones desfavorables para la empresa. Por ejemplo, analizando los datos de las estaciones meteorológicas las imágenes de los satélites la IA puede identificar las condiciones que favorecen la aparición de fenómenos meteorológicos extremos.
Hay que tener en cuenta que los incendios forestales, lluvias torrenciales o terremotos podrían impactar negativamente en la actividad diaria. ¿La consecuencia? Pérdidas económicas y productivas. No obstante, a través de sistemas de alerta temprana basados en la IA se pueden tomar medidas para mitigar los impactos de estos eventos antes de que se produzcan.
6. Gestión de la crisis
Una vez que se ha producido un fenómeno adverso, la IA ayuda a gestionar la crisis proporcionando herramientas de apoyo a la toma de decisiones. El empresario podrá supervisar en tiempo real la situación. Esto permitirá obtener información fiable sobre el personal, el estado de las infraestructuras y la necesidad de ayuda en estas circunstancias.
Además, podría proporcionar datos fiables sobre la actuación sostenible de cada empleado, lo que permitiría tomar mejores decisiones para mitigar el impacto medioambiental de la organización.
7. Mayor sostenibilidad
Disponer de edificios inteligentes ayuda a reducir las crisis climáticas. Al instalar sistemas de control climático o de ahorro de energía, la organización no solo estará siendo más sostenible, sino que estará contribuyendo positivamente al planeta.
Es cierto que todavía existen ciertas barreras en el uso de la Inteligencia Artificial en las empresas. Es importante tener una cultura data-driven en la organización. Esto, añadido a la experiencia en la gestión de datos y a una conciencia medioambiental es fundamental. No solo se beneficia el planeta del uso de la inteligencia artificial en las empresas, sino que la organización también producirá más con recursos más sostenibles.
En este artículo encontrarás una reflexión sobre cómo crece la implantación de la inteligencia artificial en las empresas y cambian los responsables de las cuestiones éticas que esta tecnología conlleva.
Crece la relevancia de la ética en la aplicación de soluciones de Inteligencia Artificial.
Analizamos los cambios respecto al perfil responsable de esta cuestión, por su impacto directo en el RSC y resultado económico en las empresas.
Aumenta la adopción de Inteligencia artificial (IA) en las empresas españolas. Según el informe ‘Uso de tecnologías digitales por empresas en España’, del Observatorio Nacional de Tecnología y Sociedad, la incorporación de esta tecnología en las empresas creció un 1% en 2021, con respecto al año anterior.
Madrid se posiciona como la Comunidad Autónoma con más empresas haciendo uso de IA para sus procesos, con el 11% de las compañías que la utilizan en todo el país.
España mantiene unos niveles de adopción similares a Europa. Sin embargo, el informe destaca que en todo el continente será una tendencia al alza, en lo que a su implantación se refiere.
De hecho, tanto el propio informe como diferentes organismos públicos la definen como un factor clave para impulsar el desarrollo económico. Siendo una de las tecnologías preferentes dentro de los planes de ayuda para la digitalización a nivel estatal y europeo.
¡TUITEALO! Los líderes no técnicos toman las riendas de la ética en Inteligencia artificial, por su impacto en los planes RSC y económicos de las compañías.
El mencionado informe establece, más concretamente, que se espera que sea un impulsor clave del desarrollo económico del país y el continente, por su enorme capacidad de potenciar innovaciones en los sectores donde se aplica.
No cabe duda, por tanto, de que será una tendencia en auge próximamente. Pero, ¿quién se hace cargo de los condicionantes éticos a la hora de implantar esta tecnología?
Los responsables de la ética en Inteligencia artificial
Para dar respuesta a esta cuestión nos acercamos al análisis realizado por IBM Institute for Business Value. En su informe ‘AI ethics in action’, encontramos un cambio de paradigma sobre quiénes son los responsables de este aspecto en las compañías a nivel europeo.
La progresiva implantación de Inteligencia artificial en las empresas es considerada un factor clave para impulsar el desarrollo económico en España y Europa.
Se trata de un análisis junto a Oxford Economics, que ha entrevistado a 1.200 ejecutivos de 16 tipos de negocios y tecnologías diferentes, en 22 países. Según este informe, de metodología similar al que se realizó en 2018, la responsabilidad ética en la Inteligencia artificial ha cambiado drásticamente en apenas tres años.
Mientras que en 2018 los líderes técnicos eran los responsables de la ética del IA en sus empresas, en la actualidad se trata de ejecutivos no técnicos los encargados de liderar la cuestión. En concreto, se ha pasado del 15% de perfiles no técnicos a un 80%. Mientras que antes, tan sólo un 20% de los directores generales se veían preparados para actuar, ahora este porcentaje se eleva al 80%.
Implicación directiva en la responsabilidad ética y corporativa
Este cambio se debe en gran medida a que tres de cada cuatro ejecutivos perciben la ética como una fuente de diferenciación frente a la competencia. También por los resultados económicos que puede ofrecer a las empresas.
El mencionado informe de IBM establece que las empresas que han adoptado soluciones avanzadas de IA lideran la ética en este ámbito. Y las empresas que adoptan Inteligencia artificialcomo una pieza clave de la estrategia de su empresa aseguran que han conseguido un retorno de la inversión en proyectos IA hasta dos veces mayor que las empresas que no consideran relevante esta cuestión.
Resulta curioso, además, cómo la encuesta revela una relación entre las organizaciones que cuidan la ética y sus implicaciones en otras parcelas empresariales. Como la sostenibilidad, la diversidad e inclusión o la responsabilidad social corporativa.
Según los resultados publicados, más del 67% de las organizaciones que considera la ética en IA como importante, aseguran también que son superiores a sus competidores en las cuestiones relacionadas con la sostenibilidad y el resto de valores descritos en material RSC.
Dicho esto, el informe también detecta carencias. Especialmente en el ámbito de la diversidad. Los equipos de Inteligencia artificial de las compañías son:
5,4 menos inclusivos para las mujeres.
4 veces menos inclusivos con colectivos LGTBQ .
17 menos inclusivos desde el punto de vista racial.
De hecho, menos del 20% de los ejecutivos se muestran muy de acuerdo con la afirmación de que sus acciones éticas en IA cumplen o superan los valores declarados en esta materia.
Queda, por tanto, mucho camino por recorrer. Tanto en lo que a implementación general de la tecnología se refiere, como en su gestión ética. Lo que sí queda claro es la importancia que toma la cuestión. Desde el momento en que la misma ha pasado de forma drástica a formar parte de la agenda de los más altos directivos de las empresas, tal y como certifica el informe. Y en apenas unos años.
Hablar de Inteligencia Artificial (IA) se ha vuelto algo habitual en miles de empresas. En este post te contamos cómo las empresas no tecnológicas pueden beneficiarse de ella.
La Inteligencia Artificial es la habilidad de las máquinas para presentar las mismas capacidades que los seres humanos.
El uso de la IA en las empresas puede ayudar a analizar mejor los datos y a tomar decisiones más inteligentes.
Innovación y digitalización. Estos son a día de hoy los principales objetivos de cualquier empresa que quiera ser competitiva en un mercado local y global. Para ello la tecnología se ha convertido en un aliado fundamental. En concreto, la Inteligencia Artificial (IA) es uno de los pilares que rige hoy en día el sistema empresarial. Aunque la IA sigue prosperando y creciendo, siguen existiendo retos para utilizar esta tecnología. Algunos de ellos tienen que ver con la búsqueda de perfiles profesionales que sepan obtener datos de calidad y analizarlos.
Qué es la Inteligencia Artificial (IA)
La Inteligencia Artificial es una habilidad que tienen las máquinas para presentar las mismas capacidades que los seres humanos. Así, las máquinas pueden estar dotadas de razonamiento, aprendizaje, creatividad y la capacidad de planear, por ejemplo.
En este sentido, los sistemas dotados con Inteligencia Artificial pueden percibir su entorno y relacionarse con él, además, de resolver problemas y actuar con un fin específico. La máquina recibe datos, los procesa y responde a ellos.
Aparte, los sistemas que poseen Inteligencia Artificial también son capaces de adaptar su comportamiento a lo que se les requiere y trabajar de manera autónoma.
Usos de la IA en empresas no tecnológicas
¿Pueden las empresas no tecnológicas beneficiarse de la Inteligencia Artificial? Por supuesto que sí. En la actualidad la IA está en prácticamente todos los dispositivos que se emplean a diario. La realidad es que los sistemas de IA pueden beneficiar a empresas de todas las formas y tamaños y que trabajan en cualquier sector.
Empresas de cualquier sector pueden hacer uso de la Inteligencia Artificial. Esto supone grandes beneficios para ellas.
1. Mejorar los procesos internos
Los sistemas de IA son perfectos para perfeccionar y optimizar los procesos y sistemas internos de la empresa. Con su uso, el empresario no sustituye por completo al elemento humano en los flujos de trabajo de la empresa. De hecho, se obtienen beneficios como ganar en agilidad en los flujos de trabajo y los procesos para ayudar al personal a centrarse en lo más importante.
Hay empresas tradicionales no orientadas a la tecnología que han integrado la IA en sus procesos internos para conseguir un embudo de ventas y marketing más racionalizado. Eso les permite hacer un mejor uso de los datos que obtienen en las campañas digitales.
2. Decisiones basadas en datos
Cuantos más datos tenga una empresa para tomar sus decisiones, mejores serán estas. El análisis de datos, sobre todo de los grandes datos, es el caballo de batalla de los sistemas basados en la IA. Los sistemas de Inteligencia Artificial no se desenvuelven bien en las tareas creativas; no diseñarán el nuevo logotipo de su empresa ni la marca; eso sigue requiriendo el toque humano. Pero sobresalen en el procesamiento de grandes cantidades de datos para encontrar patrones y tendencias que serían imposibles para un ser humano debido únicamente al volumen de información.
La Inteligencia Artificial puede utilizarse para ayudar a proporcionar información basada en datos sobre todos los aspectos de las operaciones de la empresa. Desde conseguir una mejor orientación de las campañas de publicidad y marketing hasta la identificación de los elementos que cuestan dinero a la empresa. Las decisiones basadas en los datos no garantizan el éxito del negocio, pero sin duda llevan a la empresa por el buen camino.
3. Evitar los errores humanos
El error humano es inevitable en cualquier empresa. No importa lo bien formados, minuciosos y cuidadosos que sean los empleados, la naturaleza humana es cometer errores. Los trabajadores pueden tener días malos, cometer errores tipográficos, malinterpretar los datos. No se trata de malicia o incompetencia, es simplemente un hecho de la naturaleza humana. Los sistemas de IA no tienen días de descanso, no pueden cometer errores tipográficos y siempre interpretan los datos de forma inteligente y adaptable.
La IA permite evitar errores humanos y que los trabajadores se dediquen a resolver las tareas más urgentes.
Los errores humanos pueden costar a la empresa miles de euros en pérdidas de dinero y tiempo. Los sistemas de IA no solo pueden ayudar a minimizar los errores humanos en el trabajo monótono y orientado al detalle, sino que también pueden utilizarse para buscar y detectarlos antes de que puedan causar un problema.
4. Aprendizaje continuo
Uno de los aspectos más positivos de los sistemas de IA es su capacidad para aprender, adaptarse y cambiar con el tiempo. La capacidad de aprender y adaptarse a los datos significa que los sistemas de IA están constantemente aprendiendo y avanzando sus algoritmos para proporcionar información más informada, inteligente y precisa al negocio.
Está claro que la inteligencia artificial puede ofrecer algunas ventajas importantes a cualquier empresa. La implementación de la IA en el flujo de trabajo existente puede ayudar a agilizar los procesos empresariales. Pero no solo eso, porque también ayuda a evitar errores costosos y que requieren mucho tiempo, y a tomar decisiones empresariales y de marketing más inteligentes.
Utilizar la IA también es más fácil de lo que se piensa, no requiere conocimientos informáticos complejos y detallados. No hay que saber programar un sistema desde cero. Muchos servicios y soluciones están disponibles de forma inmediata, listos para ser desplegados en cualquier negocio cuando sea necesario.
En definitiva, aunque aún queda mucho desarrollo en el ámbito de la Inteligencia Artificial, su uso ya es una realidad en muchas empresas, sean o no tecnológicas.
¿Te gustaría conocer cómo se están modernizando los departamentos financieros de las empresas? En este post te contamos en detalle cuáles son algunas de las herramientas digitales que muchos ya están implementando. ¡Sigue leyendo para descubrirlas!
Las tareas de los departamentos financieros se han incrementado con el paso del tiempo, descubre cómo les ayuda la tecnología a lidiar con ellas.
Te explicamos cómo el blockchain, la inteligencia artificial o el big data se utilizan en el día a día del área contable de la empresa.
La COVID-19 ha acelerado la modernización de miles de empresas. Ya fueran pequeñas o grandes compañías, la mayoría ha tenido que adaptarse al nuevo escenario. El uso de la tecnología ha sido y seguirá siendo esencial en este proceso. Uno de los departamentos que más se ha tenido que adaptar a la digitalización ha sido el departamento financiero de las empresas.
Hasta hace unos años, las tareas de los departamentos financieros se centraban en la gestión de la liquidez de la empresa, los pagos, las deudas e inversiones, el control presupuestario… Sin embargo, esas tareas se han incrementado en los últimos años debido a la entrada de la tecnología en las empresas.
La tecnología que transforma los departamentos financieros
En un entorno cada vez más globalizado, las empresas se han dado cuenta de la necesidad de adaptar sus modelos de negocio en función de las novedades tecnológicas. Lo mismo ocurre con los departamentos financieros, donde el Big Data, la Inteligencia Artificial, el cloud o el Blockchain entran de lleno para conseguir que los procesos de trabajo sean más eficientes y se incremente la productividad.
El Big Data, la IA, el cloud o el Blockchain ayudan a los departamentos financieros a ser más eficientes
1. Blockchain en el área financiera
El Blockchain es uno de los términos de moda hoy en día. Se suele asociar con el mundo de las criptomonedas, pero también ha demostrado su utilidad en los departamentos financieros.
El Blockchain, también conocido como cadena de bloques, evita que la información que se introduzca en el sistema pueda ser alterada.
Uno de sus usos más comunes en el área financiera de una empresa es para ejecutar de manera automática los pagos, tanto a proveedores como a empleados.
En el caso de los proveedores, el pago se ejecuta en el momento en el que se validan las condiciones estipuladas para la entrega de la mercancía o del servicio.
2. Big Data para anticipar riesgos
La digitalización de los departamentos financieros también pasa por el empleo del Big Data. Así, la empresa podrá mejorar la explotación de todos los datos y hacerlo de forma avanzada.
A través del uso del Big Datay de su análisis, el departamento financiero podrá mejorar la ejecución de procesos más complejos y relacionados con información predictiva como la Planificación, así como el análisis e interpretación de las variables que afectan a la gestión de los riesgos.
Eso sin olvidar el análisis de carteras de clientes para anticipar problemas de impago o la selección de productos en función de las necesidades de financiación o inversión.
3. La Inteligencia Artificial ordenará la información
Unido al empleo del Big Data en el departamento financiero para mejorar la información sobre los procesos que tienen que ver con la contabilidad de la empresa, se encuentra la Inteligencia Artificial (IA).
En este caso, la IA aportará más orden en la gestión de los datos que ya se han recopilado. La inteligencia artificial ayudará a clasificar toda la información obtenida. Y es que cuando se tiene un gran volumen de datos es imprescindible que se estructuren adecuadamente para obtener ciertos patrones de comportamientos con los que se pueda llegar a conclusiones.
Asimismo, el aprendizaje automático servirá para que se puedan proponer mejoras en la ejecución de los procesos, analizar escenarios y ser útiles para tomar decisiones.
4. Automatización de procesos
Por otro lado, la tecnología permite que se puedan automatizar los procesos, de manera que las personas que trabajan en los departamentos financieros pueden simplificar sus tareas. Esto es posible, por ejemplo, a través de la robótica, que facilita que se puedan integrar datos, procesarse y automatizar las tareas más manuales y que no requieren de un alto grado de capacitación.
Hay empresas que optar por la implementación de sistemas de gestión de tesorería. ¿Cómo funcionan? Muy simple. Se trata de herramientas digitales que permiten conectar la información de la empresa con el departamento financiero. De esa manera se pueden actualizar a tiempo real los saldos y movimientos de las cuentas.
A su vez, ese tipo de sistemas permite automatizar otros procesos como la posición contable de la compañía, el trámite de facturas o las operaciones de ventas que se lleven a cabo a través de la página web.
En definitiva, a medida que la tecnología vaya evolucionando, evolucionará el desarrollo del departamento financiero en la empresa, cuya labor está muy ligada al desarrollo digital de la compañía.
CFO 3.0. Transformación digital más allá de la gestión financiera.
Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.