Por Guillermo Morilla. Era inevitable. El avance, y finalmente la llegada de la inteligencia artificial (IA), destinada a atravesar todo los ámbitos y aspectos de la vida diaria, era inevitable. En algunos países con más rapidez que en otros, pero finalmente en Argentina se empieza a ver con más frecuencia el uso de la IA en actividades diarias, incluso en el ámbito del arte, el trabajo, y la política.
Tal es así, que la doctora en comunicación, Mariana Moyano, lo tituló como “la estrella de 2023”. En su podcast “Es Al Revés”, señala el furor por la aplicación ChatGPT, y analiza su aplicación en el discurso del diputado de Evolución Radical, Rodrigo de Loredo, durante su alocución en el debate de la Comisión de Juicio Político, sobre la admisibilidad de los expedientes contra los integrantes del máximo tribunal de justicia.
ChatGPT, es un chatbot capaz de responder de manera coherente a casi cualquier pregunta formulada en lenguaje natural, de generar texto o de efectuar tareas tan complicadas como escribir programas informáticos a partir de unas pocas indicaciones.
En su discurso, De Loredo utiliza la IA para responder a la pregunta: «¿Por qué los populismos en el mundo tienden a controlar los poderes judiciales de sus Estados?». La respuesta fue en sintonía con el discurso opositor, señalando que los populismos utilizan estos mecanismos para perpetuarse en el poder.
«Si los gobiernos populistas logran controlar el Poder Judicial, es posible que se produzcan abusos de poder y se socave la Justicia, lo que puede tener graves consecuencias para la democracia y la sociedad en general», fue una de las frases destacadas de la extensa respuesta que brindó ChatGPT.
Tres cosas me interesa señalar: Por un lado, la profundidad de su aplicación, en este caso durante una comisión de juicio político a la corte. En segundo lugar, el tipo de discurso, la IA forma su respuesta a partir del conocimiento del cual se sirve. Y por último, su poder como cita de autoridad.
Lo exponencial
Hoy en día debemos convivir con una rítmica continuamente evolutiva donde las máquinas están dotadas de márgenes de progresión indefinidos. Antes, la cibernética estaba enfrentada a límites formales, la infraestructura técnica era demasiado insuficiente. La IA pertenecía al mundo de la ciencia ficción, de lo distópico.
La cibernética enfrenta otro tipo de límites, incluso de índole planetaria. Jürgen Schmidhuber, director del instituto suizo de investigación en inteligencia artificial, tiene la visión de una IA que se extiende desde la tierra hasta el universo. Para el informático alemán, en un futuro, tal vez en décadas, tendremos una inteligencia artificial capaz de hacer todo lo que hacen las personas e incluso más.
“Se darán cuenta de lo que hemos notado hace tiempo, verán que casi todos los recursos físicos, no están aquí, sino allí afuera, en el universo. Muy lejos, pasando incluso nuestro sistema solar, hay una gran cantidad de material que puede usarse para construir robots”, precisó en un discurso.
La Inteligencia Artificial es la vanguardia de punta de lo que se llama “tecnologías de lo exponencial”, ésta puede verse favorecida por dos indicadores: Por un lado, la evolución de la informatización en la sociedad, donde el individuo, a lo largo de los años, ha ido confiriendo una idea de eficienticidad y autoridad en torno las máquinas, lo que deviene en una “digitalización integral del mundo”.
Por otro lado, la producción industrial ha sabido librarse de muchas de las regulaciones y fases que antes se realizaban a la hora de sacar un producto al mercado (Por ejemplo, los innumerables testeos de control de calidad). Ahora, el tiempo que discurre entre la concepción y comercialización de los productos es muy corto. La presión por la competencia y el retorno inmediato de ganancias, son la punta de lanza.
Mike Cook, investigador de inteligencia artificial, señala que hay movimientos interesantes en lugares como la Unión Europea, que buscan proponer leyes que restrinjan la IA. Pero, esta búsqueda por imprimir límites a la inteligencia artificial, es un proceso que se da mucho más lento que el propio desarrollo de la industria tecnológica. “Esta industria se preocupa más que todo por su progreso, podemos ver su velocidad de crecimiento y desarrollo. Cuando las cosas van así de rápido, no solemos pisar los frenos. No estamos pensando en los peligros, y este periodo de transición será muy peligroso”.
Hablemos de Machine Learning (El aprendizaje de las máquinas)
En 1997, el fabricante estadounidense IBM diseñó una supercomputadora desarrollada para jugar al ajedrez. La máquina, conocida popularmente como Deep Blue, dotada con una gran estabilidad y capacidad de procesamiento, y con 700.000 partidas disputadas en su memoria, estaba diseñada para derrotar al campeón mundial de ajedrez Garri Kaspárov. Esta IA toma los datos (las 700.000 partidas), analiza todas sus posibilidades en tiempo real, y actúa en consecuencia con la decisión más eficiente.
Después de tres empates y una semana de partidas, en la última del 11 de mayo, la presión y los nervios, empujaron a Kaspárov a una mala jugada para despistar al ordenador. Sin embargo, la base de datos de Deep Blue tenía registrado ese movimiento y supo responder. Consciente de que acababa de facilitar su derrota, el maestro ruso abandonó el juego.
VER LAS PARTIDAS DE KASPAROV VS. DEEP BLUE: https://www.youtube.com/playlist?list=PLXed0OxaIld3k75OgnrYqA3-Xi23w22df
La inteligencia artificial de hoy en día se desarrolla gracias a la puesta a punto de grandes arquitecturas compuestas de unidades llamadas “neuronas”. Estas “neuronas”, realizan operaciones dentro de una primera capa de cálculos que, una vez finalizada, se ve relevada por otra capa para efectuar otras tareas cuyo número puede llegar hasta algunas decenas, permitiendo así ir hacia niveles de complejidad cada vez más altos con la perspectiva de efectuar prioritariamente tratamientos comparativos de datos, de identificar similitudes con modelos determinados y entonces integrarlos.
Se trata de un sistema autoadaptativo, un sistema que aprende. Este aprendizaje toma el nombre de “supervisado”, ya que está sometido a la ejecución de tareas definidas, y que por entrenamiento, a medida que se hacen otras operaciones y sus repeticiones, el sistema aprende y comienza a evaluar, verificar y validar operaciones en tiempo real, convalidado por el gran conjunto de datos que ahora posee. Este tipo de “aprendizaje supervisado”, hoy es algo que comienza a quedar atrás en pos de un aprendizaje “no supervisado”, y mediante refuerzo.
AlphaZero es un algoritmo creado por la empresa Deep Mind Technologies (propiedad de Google), que precisó de sólo 9 horas para descifrar los misterios del juego de ajedrez. El programa que utiliza redes neuronales artificiales, está capacitado para aprender de su propia experiencia y sin necesidad de la intervención humana. Este tipo de IA juega partidas en solitario. Disputa millones de partidas contra sí misma, y solo le basta conocer las reglas básicas del juego, las cuales pone en práctica y perfecciona. Partida tras partida, define un conjunto de estrategias que le permiten un alto dominio del juego sin la necesidad de basarse en experiencias previas.
Para el filósofo francés, Éric Sadin, estos sistemas, que se instruyen así mismos, aumentan a alta velocidad su poder de experticia a lo largo de las operaciones que van efectuando, sin la necesidad de incorporarles de antemano colecciones de datos registrados previamente. En su libro “La inteligencia artificial o el desafío del siglo”, Sadin expone que estos sistemas están consagrados a adquirir la forma de tecnologías de la perfección y a imponer con cada vez mayor firmeza su autoridad a los seres vivos.
“Los sistemas, que operan en todas las escalas de la sociedad, no buscarán exactamente “derrotarnos”, sino que nos suplantarán más bien por su poder de experticia y su alto grado de reactividad generalizando modos de racionalidad de los cuales será cada vez más difícil, sino imposible, sustraernos, en la medida en que están destinados a volverse para nosotros cada vez más familiares y fundirse con nuestro medio ambiente hasta confundirse con él”.
La IA, a raíz de sus niveles de eficacia, parece estar destinada a marginar la intuición humana, hasta llegar a deslegitimarla, haciendo inútil toda decisión que dependa de nuestra propia conciencia.
La “verdad” de la máquina
“De ahora en adelante ciertos sistemas computacionales están dotados -nosotros los hemos dotado- de una singular y perturbadora vocación: la de enunciar la verdad. Lo digital se erige como un órgano habilitado para peritar lo real de modo más fiable que nosotros mismos, así como para revelarnos dimensiones hasta ahora ocultas a nuestra conciencia”, señala el filósofo Eric Sádin.
Para el pensador francés, este otorgamiento no es algo azaroso, sino que fue condicionado por un factor determinante: las ciencias algorítmicas toman de ahora en adelante un camino resueltamente antropomórfico que busca atribuir a los procesadores cualidades humanas. Algo que podemos apreciar al ver como la estructura del cerebro, hecha de neuronas, de sinapsis, de conductores eléctricos, se convierte en el modelo a imitar.
“Ningún artefacto en el transcurso de la historia, fue resultado de una voluntad de reproducir de modo idéntico nuestras aptitudes, sino que más bien lo que se trató de hacer con ellos fue paliar nuestros límites corporales con la finalidad de elaborar dispositivos dotados con una mayor potencia física. Lo que hoy hace especificas a un número creciente de arquitecturas computacionales es que sus modelos son el cerebro humano, que suponemos que encarna una forma organizacional y sistémica perfecta del tratamiento de la información y de la aprehensión de lo real.”
Un antropomorfismo emprendedor considerado con un poder capaz de emprender acciones de modo automatizado y en función de conclusiones delimitadas, a fin de conducir a largo plazo a una gestión sin errores de la cuasi totalidad de los sectores de la sociedad.
IA Politikon
Volvamos al discurso de Rodrigo de Loredo. Lo interesante, además de su aplicación en un contexto de importancia como lo es la comisión que definirá si se avanza -o no- con el juicio a la corte, es la autoridad que le confiere el diputado a la respuesta de ChatGPT. “Este es el futuro, y parece ser que el futuro a ustedes les tiene el boleto picado”, de esta manera cerró su alocución el dirigente radical.
Lo paradójico, es que la intervención de la IA como fuente y cita de autoridad, no fue una posibilidad futura, fue un hecho concreto y real. La aplicación dio una respuesta formal, con una construcción coherente, pero además con un sesgo sumamente partidario. Parece atendible poner el foco en este punto: las aplicaciones aparecen como algo a disposición que resuelve de manera eficiente nuestras demandas, pero además, en este caso, está vestida con cierta neutralidad. La pregunta que surge es ¿Es realmente neutral? ¿Puede la IA tomar partido? o mejor ¿Puede la inteligencia artificial formar un partido y convertirse en líder político?
Puede. Y de hecho sucede. En Dinamarca un chatbot (similar a el que utilizó De Loredo), llamado Leader Lars, aspira a presentarse en las próximas contiendas electorales con su partido: Synthetic Party. Los impulsores de este algoritmo piden que se cambie la ley para que la IA pueda acceder al parlamento.
Lo que piden no es presentarse un grupo de personas asesoradas por el algoritmo. Quieren que sea el algoritmo informático el que se presente como candidato a las elecciones y tome las decisiones políticas pertinentes a partir de la interacción que haya tenido con los electores.
Pero, ¿cuál es su ideología?, ¿progresista?, ¿conservadora? “El partido es sintético, lo que literalmente significa que homogeneiza lo que parece contradictorio o dispar”, explica Asker Bryld Staunaes, miembro del grupo de artistas Computer Lars y del centro tecnológico MindFuture y principal creador e impulsor del Synthetic Party.
Rápido sería enumerar las ventajas si una IA tomará el control de gobierno. Por un lado, su capacidad de procesar datos y conocimiento para la toma de decisiones de la manera más eficiente. Pero además no tendría intereses personales, ni posibilidad de caer en hechos de corrupción. A simple vista parece incluso una buena idea.
Sin embargo, no hay que olvidar que las redes neuronales de una IA, trabajan gracias a la información que alguien le proporciona y, luego de un sofisticado proceso, dan respuestas. No son realmente libres de pensar “espontáneamente”, o de tomar la iniciativa.
Un problema fundamental de las IA es la falta de transparencia (“explicabilidad”) de las decisiones que toman. En general actúan como “cajas negras” sin que podamos saber qué razonamiento han llevado a cabo para llegar a una conclusión. Sin embargo, la tendencia es a seguir sus decisiones como las más adecuadas, perdiendo toda mirada crítica.
Volver al Ethos filosófico
Como se dijo al principio de la nota, era inevitable. Hoy en día frecuentamos cada vez más el uso de inteligencias artificiales, muchas de las aplicaciones que utilizamos a diario están dirigidas por un algoritmo inteligente que en la mayoría de los casos nos traslada la “opción más adecuada” a medida que se alimenta del uso que le damos.
No hay que irse muy lejos. Spotify y Netflix funcionan de esa manera. Consumir es aportar datos, a medida que escuchamos música o miramos un pelicula, el algoritmo empieza a procesar nuestros datos, comienza a alimentarse, observa nuestro comportamiento en relación a la aplicación (La cantidad de veces que escuché un tema, si dejé una película por la mitad, si soy de mirar poco o mucho), en base a ello construye las famosas recomendaciones. Netflix incluso tiene la capacidad de sugerir un porcentaje de coincidencia con tus gustos: “93% para ti”
Esto es solo una parte del mundillo. Existen, por ejemplo, heladeras inteligentes que en base a los datos que ingresamos, pueden establecernos un plan nutricional, o decodificar, gracias a sus cámaras internas, nuestros productos favoritos y avisarnos cuando se agotó. Incluso, si se le otorga el permiso, puede realizar las compras por nosotros a medida que lo considere necesario.
Otro artículo merecería profundizar en la relación de las empresas que diseñan este tipo de IA, con los productos. Aquello que se ofrece como la mejor opción, casi siempre es lo que impulsa el mercado.
Lo que interesa señalar es la pérdida progresiva de autonomía en las personas, la concesión a la máquina de que puede brindarnos siempre la solución más eficiente. La imposibilidad de ser abordados intempestivamente por aquello que “no está especialmente hecho para ti”. Y frente a ello, la pérdida de desconfianza absoluta ante el razonamiento algorítmico.
En el texto “¿Qué es la ilustración?”, Michel Foucault, toma la respuesta de Immanuel Kant a un periódico de la época, para posicionar una distancia con la teoría crítica tradicional. En resumidas cuentas, Kant señala que la ilustración es aquello por lo cual el hombre abandona el estado de tutela para servirse de su propia razón.
Foucault toma esta premisa para dar un giro a la teoría crítica, y proponer un Ethos filosófico, una forma de pensamiento crítico descentrado, que hace de la teoría una caja de herramientas. Un pensamiento no totalizante, sino múltiple, que, a la manera del rizoma, se multiplica y multiplica las perspectivas, creando conceptos que nos ayuden a pensar la actualidad y su complejidad.
Quizás en estos tiempos de hegemonía algorítmica, sería conveniente resurgir este Ethos filosófico. Tener una mirada crítica de la actualidad en torno a las tecnologías que se presentan capaces de brindarnos la decisión y acción más eficiente por nosotros. Estar atentos a las prácticas y discursos que se producen en torno a las tecnologías de la perfección, y a los dispositivos de vigilancia y control que infieren. No se trata de ir contra la máquina, sino de soltarse del estado de tutela al que al parecer nos hemos predispuesto.