ARTÍCULO: Siete razones por las que la IA necesita gestión del conocimiento

Gran parte del debate sobre la IA generativa y el futuro del trabajo se centra en el potencial de la IA para desplazar a los trabajadores. A menudo, referencias vagas sugieren que la IA creará nuevos puestos de trabajo, como lo hizo toda la automatización del pasado. Al igual que la automatización mecánica y digital anterior, existen grupos de expertos que ya comprenden el trabajo humano necesario para que la automatización sea eficiente y sostenible. Las computadoras sin programadores no podrían hacer nada. Las cosechadoras de cereales sin mecánicos que limpiaran y mantuvieran sus mecanismos pronto se pararían en los vastos campos de trigo que debían cosechar.

La IA generativa ciertamente tiene sus inventores, aquellos que conocen los secretos inculcados en los algoritmos, tanto como los algoritmos lo permiten. Saben, al menos más que los usuarios de IA generativa, qué combinaciones de datos se utilizaron para el entrenamiento.

Una vez entrenada, muchos creen que la IA generativa es similar a una bestia mítica que surge de un abismo. En este caso, ese abismo es Internet, tanto claro como oscuro. La IA generativa sigue las inclinaciones de todos aquellos que poblaron esos vastos depósitos con hechos, opiniones, agravios, poesía y muchos otros productos de la humanidad, escritos y visuales.

Para ir más allá del experimento e impulsar la adopción y el uso por parte de individuos y empresas, se debe confiar en la IA generativa. Una IA que maldice al azar, que refleja posiciones discriminatorias, que se convierte en un sinsentido, genera dudas sobre la eficacia de la IA como socio legítimo en los negocios o en la vida.

Por lo tanto, los desarrolladores de Large Language Models (LLM) instituyen varias soluciones al comportamiento aberrante de la IA, reinando en sus afirmaciones más extravagantes. En lugar de reflejar todo Internet, los creadores de LLM perfeccionan la producción para evitar áreas culturalmente sensibles, adoptan un contexto compartible e intentan limitar los arrebatos menos convencionales. Realizan esta gestión de respuestas con anulaciones manuales que se ubican entre el LLM y las personas o sistemas que realizan consultas.

La palabra clave aquí es manual. Si bien puede haber cierta automatización involucrada en la redacción de lo que se conoce como Guardrails, las opciones sobre lo que se necesita guardar como barandilla son puramente humanas. Ninguna IA generativa se autocontrola su comportamiento aberrante u ofensivo.

La naturaleza manual de las barandillas requiere gestión del conocimiento. Es posible que sea necesario conocer qué barreras de seguridad existen, su contenido y contexto, para ofrecer comodidad a los compradores o para actuar como punto de referencia a medida que cambian las expectativas, la política u otros contextos.

Las barreras de seguridad no son la única área donde la gestión del conocimiento debe aplicarse a la gestión de la IA generativa.

La siguiente lista describe las áreas más importantes donde las organizaciones deben aplicar los principios de gestión del conocimiento al desarrollo y la implementación de la IA generativa. 

  1. Barandillas. Las barandillas deben estar documentadas y ser susceptibles de búsqueda. Probablemente se volverán complejos. Es posible que algunos servicios comerciales ya tengan barreras de seguridad. Los clientes deberán comprender esos parámetros para no escribir nuevas barreras que entren en conflicto con las que ya existen en un servicio de IA generativa. Las organizaciones deberán incluir barreras de seguridad en sus prácticas de gestión del cambio, ya que pueden volverse irrelevantes o requerir aumento dependiendo de situaciones comerciales, como adquirir una nueva empresa o abrir una sucursal en un nuevo país. 
  2. Metadatos de LLM. Para aquellos que han examinado las docenas de modelos disponibles para descargar en LMStudio, se darán cuenta de que los parámetros más importantes para esa búsqueda vienen en forma de la capacidad del modelo para ejecutarse en el hardware de destino. Neptune.ai tiene que ver con metadatos de aprendizaje automático. Entienden que las organizaciones necesitan saber cómo se construyeron y evaluaron los modelos, qué versiones de conjuntos de datos se utilizaron y métricas de prueba, solo por nombrar algunos atributos de los metadatos que son cruciales para comprender la naturaleza, la historia, las habilidades necesarias para mantenerlos y su mejores casos de uso. El repositorio de modelos Hugging Face ofrece algunos filtros de búsqueda para examinar sus repositorios, pero no incluyen los tipos de parámetros que rastrea Neptune.ai. Los modelos de Hugging Face a menudo enumeran información importante en su narrativa asociada, pero eso significa leer las notas publicadas de los candidatos a LLM para ver cómo fueron capacitados y tal vez si se puede confiar en ellos. Pero primero hay que descubrirlos. Hugging Face y otros cambios de prioridades deberán aplicar metadatos para que puedan mantener sus repositorios relevantes. 
  3. Los modelos de contexto , como los gráficos de conocimiento, suelen ser generados por humanos. Los gráficos de conocimiento no son nuevos. Ofrecen una forma semántica, a menudo visual, de representar la relación entre categorías de conocimiento y sus datos relacionados. Los gráficos de conocimiento se están convirtiendo en un enfoque para alcanzar resultados contextualmente más correctos de la IA generativa al reducir su tendencia a divagar e incorporar datos menos relevantes que podrían sesgar los resultados y generar desconfianza. Los gráficos de conocimiento requieren reflexión, seguimiento y mantenimiento humanos.

Si está interesado en las 4 áreas restantes en las que las organizaciones necesitan aplicar principios de gestión del conocimiento al desarrollo e implementación de IA generativa, consulte el resto del artículo en SeriousInsight.com:7 razones por las que la IA necesita gestión del conocimiento.

Sobre el Autor:

Daniel W. Rasmus , autor de Listening to the Future , es un estratega y analista de la industria que ha ayudado a los clientes a poner su futuro en contexto. Rasmus utiliza escenarios para analizar tendencias en la sociedad, la tecnología, la economía, el medio ambiente y la política con el fin de descubrir implicaciones utilizadas para desarrollar y perfeccionar productos, servicios y experiencias. Aprovecha este trabajo y metodología para el desarrollo de contenidos, talleres y desarrollo profesional.