Valery Yakubovich, director
ejecutivo de Wharton Mack Institution for Innovation in Management, como
recogen en Wharton at Knowledge del pasado 2 de Julio, plantea que la Inteligencia
Artificial ( IA) generativa tiene todavía un largo camino por recorrer antes de
que no requiera una intensiva supervisión humana, por lo que los trabajadores
pueden dejar de preocuparse ante la posibilidad de ser reemplazados por IA
generativa.
En un ensayo publicado
en The Wall Street Journal, junto a Peter Capelli y Prasanna Tambe, sugieren que
la AI creará más trabajos para las personas porque necesita la supervisión
humana intensiva para producir resultados utilizables. Mantienen que el trabajo
moderno es complejo y la mayor parte de los trabajos implican más aspectos de
los que la IA es buena en la actualidad.
Yakubovich piensa que:
a).- Aunque la IA generativa
ha avanzado con gran rapidez todavía tiene que recorrer un gran camino hasta
que pueda funcionar de forma autónoma y predecible, factores clave para que sea
de confianza.
b).- Modelos amplios de
lenguaje (LLM) como ChatGPT son capaces de procesar mucha cantidad de datos
pero no pueden diseccionarlos con exactitud y pueden conducir a la información
engañosa conocida como “alucinaciones de la IA”.
c).- Las compañías sienten
aversión por el riesgo y necesitan mantener un elevado nivel de eficiencia y
control para tener éxito, por lo que no van a precipitarse a despedir a sus
profesionales para sustituirles por una tecnología que todavía tiene muchos
problemas que solucionar.
A pesar de todas sus
debilidades actuales la IA generativa se ha promocionado por su capacidad para gestionar
lo que muchos consideran como comunicación “mundana” en el trabajo: la
interacción online con los clientes, la producción de informes y la preparación
de notas de marketing como las notas de prensa.
Yakubovich destaca que
la mayor parte de las interacciones en el trabajo son comunicaciones informales
y que gran parte del conocimiento de la organización es tácito y que aunque las
herramientas digitales son capaces de capturar ambos nadie quiere que sus
correos electrónicos o transcripciones de Zoom, por ejemplo, sean analizadas
libremente por un LLM, siendo la calidad de la información extraída
difícilmente verificable.
Las organizaciones
tampoco quieren que la IA generativa esté involucrada en asuntos políticamente
sensibles, especialmente si existen preocupaciones legales. Además muchas de
ellas carecen de la estructura necesaria para manejar la tremenda cantidad de
información que la tecnología es capaz de recoger, por lo que los seres humanos
todavía juegan un papel muy importante en hacer que todo tenga sentido.
No hay comentarios:
Publicar un comentario