La llegada de la inteligencia artificial nos pilló por sorpresa. Ya conocíamos a los asistentes en distintas plataformas, pero los nuevos modelos como ChatGPT y demás han marcado una diferencia que parece destinada a ir a más. Y ante semejante panorama, surgen los miedos y las dudas.
Como es habitual, a pesar de que la IA nos puede ayudar a resolver problemas que a nosotros nos costarían el doble y ha demostrado ser una gran herramienta de trabajo, las preocupaciones derivadas de los conflictos que supuestamente van a provocar los avances en inteligencia artificial superan, o eso pensamos, a los beneficios. Cunde el miedo, fundado en gran medida, de que muchos puestos de trabajo no precisen de una abultada plantilla y, por lo tanto, se prescinda de un número significativo de trabajadores. Esto ya es un hecho en distintos ámbitos y probablemente vaya en aumento.
También hay incertidumbre respecto a cómo estos modelos toman sus decisiones, ya que, aunque todo son datos y algoritmos, al parecer existe una parte del proceso que desconocemos. Esto es algo que preocupa seriamente, ya que no nos permite tener el control del programa al 100%, como ya se ha visto en algunos casos (IA´s que modifican su programación para no hacer determinadas tareas o toman decisiones que no están contempladas).
Pero luego tenemos el peor de los miedos, uno subyacente que nadie quiere reconocer, pero que está ahí. Como dijo en su día Steve Wozniak, el problema de la IA es que es un programa que no conoce realmente nuestro mundo, y mucho menos la complejidad de los humanos. Precisamente, todo el entrenamiento de estos lenguajes se basa en la información que los humanos hemos volcado en la red. El ser humano es buena gente… y también mala persona. Esto puede ser algo que un programa no termine de entender intrínsecamente. Si se llega al punto de que una IA alcance un cierto nivel de singularidad, es posible que el concepto que tenga de la humanidad no sea precisamente bueno.
No obstante, dado que podemos ejercer cierto control sobre esta, no tiene mucho sentido pensar que acabará con la humanidad al estilo de «Terminator». Siempre que hemos conseguido alcanzar una nueva tecnología que ha mejorado la sociedad, han surgido grupos de personas que solo ven el lado malo de estas. Es cierto que se suele pagar un precio, pero son los costes del progreso. Si sabemos usar de forma correcta y mejorar los sistemas de IA, tendremos la oportunidad de manejar grandes cantidades de datos en un tiempo mínimo, mejorando el avance en todo tipo de campos para nuestro beneficio. Desgraciadamente, los humanos no vamos a prestar mucha atención a las ventajas y anunciaremos a bombo y platillo los posibles inconvenientes.
Con todo, es algo imparable. Los ordenadores gestionados por IA con sus procesadores dedicados ya están prácticamente aquí; los móviles y tantos otros aparatos también están a la vuelta de la esquina, literalmente. Una prueba de cómo desconfiamos de esta tecnología se ve reflejada en el bajo índice de ventas de productos que ya integran IA. Parece que no estamos interesados en ellos, no nos gusta que algo gestione o sugiera nuestras decisiones o acciones, y esto es legítimo. ¿Pero hasta qué punto se esconde en ello el temor?.
Es evidente que el papel que jugamos en lo que nos depare el futuro es determinante. Para bien o para mal, la IA es nuestra creación. Convivir con ella y lograr que nos beneficie en aspectos que solo podemos llegar a imaginar es nuestra responsabilidad. La pregunta es: ¿sabremos cómo hacerlo?
¿Cuál es tu opinión? ¿Nos matará a todos, nos quedaremos sin trabajo? o por el contrario, ¿nos hará más productivos y mejorará nuestra calidad de vida? Puedes dejarnos tu comentario respecto a este peliagudo dilema.