5 preguntas que debes responder antes de implementar la IA
Nadie puede dudar que estamos viviendo tiempos de cambio en la sociedad, similares a la invención de la imprenta, la computadora y la internet. Aunque esta vez el invento es algo que rompe aún más los esquemas: La
Nadie puede dudar que estamos viviendo tiempos de cambio en la sociedad, similares a la invención de la imprenta, la computadora y la internet. Aunque esta vez el invento es algo que rompe aún más los esquemas: La Inteligencia Artificial. Pero ¿Estamos preparados para implementar la IA en tu negocio?
Realmente la tecnología es algo que me apasiona, por eso invierto tiempo investigando y buscando material de la IA. Justamente en esa búsqueda me encontré un artículo de la profesora Tsedal Neeley, quien es decana asociada de profesorado e investigación en la Harvard Business School.
En su escrito, la profesora Neeley, ofrece algunas preguntas que los líderes de compañías deben responderse antes de implementar soluciones de IA. A continuación, les compartimos 5 preguntas que, para nosotros, son obligatorias:
¿Cómo debo prepararme para incorporar la IA a la empresa?
Para empezar, es importante reconocer que la forma óptima de trabajar con la IA es diferente a la utilizada con otras nuevas tecnologías. En el pasado, la mayoría de las nuevas herramientas simplemente nos permitían realizar tareas de forma más eficiente. La gente escribía con bolígrafos, luego con máquinas de escribir (que eran más rápidas), luego con computadoras (que eran aún más rápidas). Cada nueva herramienta permitía escribir con más eficacia, pero los procesos generales (redacción, revisión, edición) seguían siendo prácticamente los mismos. La IA es diferente. Tiene una influencia más sustancial en nuestro trabajo y nuestros procesos, porque es capaz de encontrar patrones que nosotros no podemos ver y utilizarlos para proporcionar ideas y análisis, predicciones, sugerencias e incluso borradores completos por sí sola. Así que en lugar de pensar en la IA como las herramientas que utilizamos, deberíamos pensar en ella como un conjunto de sistemas con los que podemos colaborar. Para colaborar eficazmente con la IA en la empresa, hay que centrarse en tres aspectos: En primer lugar, asegúrate que todo el mundo tiene una comprensión básica de cómo funcionan los sistemas digitales. Una mentalidad digital es un conjunto de actitudes y comportamientos que te ayudan a ver nuevas posibilidades utilizando datos, tecnología, algoritmos e IA En segundo lugar, asegúrate que tu empresa está preparada para la adaptación y el cambio continuos. La incorporación de nueva IA exige que los empleados se acostumbren a procesar nuevos flujos de datos y contenidos, analizarlos y utilizar sus conclusiones y resultados para desarrollar una nueva perspectiva. Del mismo modo, para utilizar los datos y la tecnología de la forma más eficiente, las organizaciones necesitan una estructura organizativa integrada. En tercer lugar, incorpora la IA al modelo operativo. Como han demostrado mis colegas Marco Iansiti y Karim R. Lakhani, la estructura de una organización refleja la arquitectura de los sistemas tecnológicos que contiene, y viceversa. Si los sistemas tecnológicos son estáticos, tu organización será estática. Pero si son flexibles, la empresa será flexible. Esta estrategia funcionó con éxito en Amazon. Según Iansiti y Lakhani, la compañía tenía problemas para mantener su crecimiento y su infraestructura de software se estaba "resquebrajando bajo presión". Así que Jeff Bezos escribió un memorándum a los empleados anunciando que todos los equipos debían enrutar sus datos a través de "interfaces de programación de aplicaciones" (API), que permiten a varios tipos de software comunicarse y compartir datos utilizando protocolos establecidos. Quien no lo hiciera sería despedido. Este fue un intento de romper la inercia dentro de los sistemas tecnológicos de Amazon, y funcionó, desmantelando los silos de datos, aumentando la colaboración y ayudando a construir el modelo operativo basado en software y datos que vemos hoy en día. Si bien es posible que no desee recurrir a un ultimátum similar, debe pensar en cómo la introducción de la IA puede -y debe- cambiar sus operaciones para mejor.¿Cuáles son las acciones que podemos aplicar para garantizar la transparencia en la toma de decisiones mediante IA?
Reconocer que la IA es invisible e inescrutable y adoptar una actitud transparente al presentar y utilizar los sistemas de IA.
Los directivos deben reconocer que no siempre es posible saber cómo toman sus decisiones los sistemas de IA. Algunas de las mismas características que permiten a la IA procesar rápidamente enormes cantidades de datos y realizar determinadas tareas con mayor precisión o eficacia que los humanos también pueden convertirla en una caja negra: No podemos ver cómo se produce el resultado. Sin embargo, todos podemos contribuir a aumentar la transparencia y la responsabilidad en los procesos de toma de decisiones de la IA de dos maneras: Callen Anthony, Beth A. Bechky y Anne-Laure Fayard identifican la invisibilidad y la inescrutabilidad como características fundamentales que diferencian la IA de las tecnologías anteriores. Es invisible porque a menudo se ejecuta en segundo plano de otras tecnologías o plataformas sin que los usuarios sean conscientes de ello; por cada Siri o Alexa que la gente entiende como IA, hay muchas tecnologías, como los frenos antibloqueo, que contienen sistemas de IA invisibles. Es inescrutable porque, incluso para los desarrolladores de IA, a menudo es imposible entender cómo un modelo llega a un resultado, o incluso identificar todos los puntos de datos que está utilizando para llegar allí, buenos, malos o de otro tipo. A medida que las IA se basan en conjuntos de datos cada vez mayores, esto se hace cada vez más cierto. Pensemos en los grandes modelos lingüísticos (LLM), como ChatGPT de OpenAI o Bing de Microsoft. El LLM de OpenAI se entrenó con 175.000 millones de parámetros y se creó para predecir la probabilidad de que algo ocurra (un carácter, una palabra o una cadena de palabras, o incluso una imagen o un cambio tonal en tu voz) basándose en su contexto precedente o circundante. La función de autocorrección de tu teléfono es un ejemplo de la exactitud -e inexactitud- de este tipo de predicciones. Pero no se trata sólo del tamaño de los datos de entrenamiento: Muchos algoritmos de Inteligencia Artificial aprenden por sí mismos y van perfeccionando su capacidad predictiva a medida que obtienen más datos y comentarios de los usuarios, añadiendo nuevos parámetros.Dar prioridad a la explicación como objetivo central del diseño.
El informe de investigación "Artificial Intelligence and the Future of Work" (Inteligencia Artificial y el futuro del trabajo), elaborado por científicos del MIT, señala que los modelos de IA pueden ser más transparentes mediante prácticas como destacar áreas específicas de los datos que contribuyen a los resultados de la IA, crear modelos más interpretables y desarrollar algoritmos que puedan utilizarse para comprobar cómo funciona un modelo diferente. Del mismo modo, Timnit Gebru, destacado informático especializado en IA, y sus colegas Emily Bender, Angelina McMillan-Major y Margaret Mitchell (conocida como "Shmargaret Shmitchell") sostienen que prácticas como los análisis premortem, que incitan a los desarrolladores a considerar tanto los riesgos del proyecto como las posibles alternativas a los planes actuales, pueden aumentar la transparencia de las tecnologías futuras. Haciéndose eco de este punto, en marzo de 2023, los destacados empresarios tecnológicos Steve Wozniak y Elon Musk, junto con empleados de Google y Microsoft, firmaron una carta abogando por que el desarrollo de la IA sea más transparente e interpretable.¿Qué podemos hacer para poner barreras a los LLM para que sus respuestas sean verdaderas y coherentes con la imagen de marca que se quiere proyectar?
Los LLM conllevan varios riesgos graves. Pueden:- Perpetuar prejuicios perjudiciales utilizando estereotipos negativos o minimizando los puntos de vista minoritarios difundir información errónea repitiendo falsedades o inventando hechos y citas
- Violar la intimidad al utilizar datos sin el consentimiento de las personas
- Provocar brechas de seguridad si se utilizan para generar correos electrónicos de phishing u otros ciberataques
- Dañar el medio ambiente debido a los importantes recursos informáticos necesarios para entrenar y ejecutar estas herramientas.