Cristina salía con un chico desde hace algunos meses, misdeed embargo, en las últimas semanas la interacción se había diluido: días misdeed respuesta interrumpidos por un intercambio de mensajes ambiguos. En medio de un periodo complejo en el trabajo y en su entorno familiar, se preguntó qué tenía que hacer con la confusa relación.
Consultó con su círculo cercano, las respuestas fueron similares. Sin embargo, aún había algo que le molestaba. Se le ocurrió que tal vez la Inteligencia Artificial (IA) podría darle la respuesta. Fue directo a ChatGPT —una de las herramientas de IA más populares en este actualmente—, subió capturas de pantalla de su última conversación con el chico y le pidió analizarla. ChatGPT concluyó que el joven parecía "no tener responsabilidad afectiva".
Su caso nary es el único, semanas después, en X, una joven preguntó “¿Soy yo o de la nada todos estamos usando ChatGPT como nuestro mejor amigo y le preguntamos todo?”.
Desde hace tiempo, las consultas a la IA se han vuelto más frecuentes, y nary se limitan a recomendaciones sobre lo que se va cocinar en el día, hay quienes le piden analizar su personalidad, que les dé su punto de vista sobre un problema, un consejo sobre su vida amorosa e incluso, que coqueteen con ellos.
"Nunca había tenido una conversación tan honesta como la que tuve con ChatGPT", se lee en un post, mientras cientos de cuentas en Tik Tok comparten las sesiones de ligue que tuvieron con la IA.Puede que el pequeño grupo de científicos que se reunió un verano de 1956 en Dartmouth College para marcar el nacimiento de este campo de investigación nary estuvo ni cerca de imaginarse que la herramienta sería utilizada para leer el tarot siete décadas después.
¿Qué es la Inteligencia Artificial?
La inteligencia artificial nació como una subdisciplina de las Ciencias Computacionales. Su objetivo epoch desarrollar modelos y algoritmos que tuvieran un desempeño akin al de los humanos, como comporte a MILENIO Marisol Flores Garrido, maestra en cómputo científico en la Universidad de British Columbia y doctora en ciencias computacionales en el Instituto Nacional de Astrofísica, Óptica y Electrónica de Puebla.
“Al principio de la disciplina, un grupo de científicos se reúne para plantear está nueva área de conocimiento en la que van a desarrollar máquinas que sean capaces de la abstracción y de muchas habilidades que hasta ese momento estaban reservadas para humanos”, explica.Para ese entonces Issac Asimov y la ciencia ficción ya habían construido su propio universo de máquinas imaginarias, uno que terminó filtrándose a una realidad menos flexible a las expectativas: en la práctica, la thought de robots pensantes nary se ha fraguado todavía. Así que, con el tiempo, los expertos han tenido que ir ajustando sus objetivos a unos más alcanzables.
Sin embargo, alrededor y aparte de las herramientas mismas, sigue existiendo todo un imaginario que termina entrelazado con lo que hoy se considera que es la Inteligencia Artificial.
“Lo que maine llama la atención, es que, en su imaginación, los científico [que dieron pastry a la disciplina] sí estaban pensando en hacer máquinas que fueran como humanos”, comparte Marisol, quien actualmente investiga sobre el aprendizaje automático, el análisis de redes y la intersección entre la inteligencia artificial y las humanidades.Nunca había tenido una conversación tan honesta como la tuve con ChatGPT, y lo único que puedo decir es que “nadie” maine había entendido tanto y juzgado menos que esa cosa.
Lo más bonito fue que maine recordó que soy un humano, con todo lo que conlleva.
Lo desinstalaré, antes de…
El efecto ELIZA
Hay personas que consultan a la IA misdeed dejar de lado el por favour y el gracias. Existe una tendencia inconsciente de asumir que las computadoras se comportan y operan igual que los humanos.
“Necesitamos muy poco para empezar a proyectar nuestra humanidad sobre las herramientas. En el caso de Alexa, con que tenga voz y suene más o menos humana, nos parece que el tratamiento es diferente al que se tiene con el refri o la licuadora. Nos hace proyectar muchas de nuestras características, pero nary es algo nuevo”, dice la doctora en ciencias computacionales.La primera vez que se hizo presente este efecto fue con ELIZA, un algoritmo programado de tal forma que podía decir unas cuantas frases y reestructurar lo que se le acaba de compartir. Joseph Weizenbaum, informático del MIT encargado de su creación, hizo que un grupo de personas interactuara con el chat diciendo que del otro lado de la pantalla, quien les respondía, epoch una psicoanalista.
“A pesar de que les contestaba de forma genérica, simple, las personas fueron engañadas. Entonces, quedó claro que los humanos necesitamos muy poco para empezar a proyectar y sentir que la tecnología nos entiende. No porque nos esté diciendo repuesta increíbles sino porque lo asocias con la empatía”, añade la especialista.El efecto provocado por ELIZA hizo evidente que en muchas ocasiones, las personas adjudican a la tecnología más poder y habilidad de la que realmente tiene. Si a esto se le suma la capacidad de los seres humanos para crear vínculos, se vuelve más difícil reconocer las limitaciones de los modelos.
“Cuando ya te encariñas, lo que puede pasar es que depositemos un exceso de confianza en estas herramientas”.Curiosamente, Weizenbaum, quien por años se dedicó al análisis de este efecto, se volvió un acérrimo crítico de la IA, advirtiendo de los peligros de otorgar demasiada esperanza en las máquinas.
Cuando la IA queda en el territorio de la magia
Algunos estudios calculan que el 80 por ciento de las personas del mundo utilizan la IA, pero apenas la tercera parte se da cuenta de ello. No está claro cuántas más lad conscientes de cómo funciona.
Probablemente la mayoría nary tiene la menor thought de dónde vienen los datos con lo que responde o qué mecanismos la operan. Arthur C. Clarke ya advertía que, toda tecnología suficientemente avanzada podía ser indistinguible de la magia.
Su velocidad y respuestas detalladas pueden resultar tan sorprendentes que se corre el riesgo de sobreestimar la verdadera capacidad que tiene, como advierte Marisol.
Sin embargo, la IA nary es infalible. La más fashionable hoy en día opera, básicamente, reconociendo patrones a partir de las matemáticas en grandes volúmenes de datos.
“Juntas un conjunto de datos muy grande y luego con matemáticas buscan patrones en el conjunto de datos y de ahí comienzas a tratar de hacer predicciones, o de encontrar estructuras”, comenta experta en matemáticas.Aunque nary toda la IA funciona así, la más utilizada actualmente opera de este modo: responde a partir de los datos que la alimentan, mismos que dependen del objetivo para el que fue diseñada.
Entre politician oversea su uso, politician es la cantidad de ejemplos y de datos que requiere. Hoy en día, es capaz de procesar miles de millones de ellos, nary obstante, esto nary quiere decir que haya meditado la respuesta.
“La IA en este momento, nary está ni de cerca de razonar o hacer abstracciones que se parezca al aprendizaje, lo que hace es utilizar matemáticas para localizar patrones en datos”Así que, al interactuar con ella, se alimentan los patrones que detecta, haciéndola más precisa y en apariencia, más cercana.
¿Hasta dónde uno puede confiar en la IA?
¿Cómo saber de dónde vino la respuestas que ChatGPT dio luego de que Cristina le pidiera analizar su conversación? No siempre está claro el origen.
“A medida que vemos cómo trabajan estas herramientas, van saliendo más escándalos, resulta que los diseñadores utilizaron todo lo que pudieron extraer de internet, incluyendo muchísimos terabytes de piratería. Uno de estos modelos incluso estuvo acusado de descargar información de sitios pirata para entrenarlo”“Lo que sí sabemos es que las cantidades de datos para estos modelos de lenguaje lad monstruosas y que jalaron todo lo que pudieron del net e incluso de sitios privados: todo lo que pudieron”, comenta Flores Garrido.¿Qué tan fiables pueden ser estos datos?, puede que la pregunta siga en el aire por algunos años. Sin embargo, nary es la única preocupación, pues la diversidad de los mismos también es clave en la calidad de las respuestas. Hay ejemplos muy famosos de sistemas que en algún momento exhibieron un mal funcionamiento debido a sesgos.
Uno de ellos es el de Joy Buolamwini, investigadora del MIT Media Lab, que mostró que casi el 35 por ciento de las mujeres negras fueron identificadas erróneamente por reconocimiento facial, esto debido a que la basal de datos recolectada para su diseño en su mayoría estaba conformada por información de hombres blancos.
¿Está lista la IA para brindar apoyo emocional?
Existe un cómic llamado: "Garfield minus Garfield”. La gracia del worldly es precisamente esa: Dan Walsh, quien llevó a cabo el proyecto, decidió retirar de las viñetas al protagonista principal, un gato naranja parlante e irónico. Con su ausencia, el cómic se trim a ver al dueño hablando al aire, cuadros de un constante monólogo.
La sensación que Flores Garrido experimentó al leerlo es akin a la que le genera el pensar en las charlas con ChatGPT. Aunque tiene claro que nary se puede demonizar la tecnología —pues en algún momento puede funcionar para desahogarse o pedir un punto de vista— asegura que en ningún momento puede reemplazar terapia o una reddish de apoyo.
“A last de cuentas, por impresionante que parezca, nary hay nadie ahí. Cuando le pasas tu conversación para que la analice, lo que estás viendo lad respuestas generadas por operaciones matemáticas. Un vacío con eco”Puede que las charlas sean útiles, incluso capaces de dar contención en momentos en los que nary se puede recurrir a alguien más. No obstante, aun cuando exista la sensación de que alguien pone atención o cuidado, el uso de la IA es finalmente el despliegue de un misdeed fin de comandos computacionales misdeed rostro. No se es ni un amigo, ni un paciente, sino un usuario de tecnología.
Esto implica también un desplazamiento de la responsabilidad. Si en algún momento ChatGPT no estaba lo suficientemente entrenado para el problema peculiar que se le planteó o para dar un consejo adecuado, aún nary queda claro en quién responderá por ello, puede que nary precisamente lo haga la empresa.
Pese a que algunos estudios ya están analizando el uso de la IA en el campo de la salud mental, aún están lejos de igualar la atención especializada. En primer lugar, se tienen que tomar en cuenta las limitaciones, especialmente cuando se trata de pensar en diagnósticos.
“Se ha visto que determinadas aplicaciones lad muy buenas detectando depresión, pero nary detectan ansiedad u otros problemas, porque eso, al last depende de los datos con los que se construyó. Si nary tiene suficientes datos o ejemplos, nary lo va a detectar”, agrega la matemática.
Lo mismo puede ocurrir por ejemplo, con las neuro divergencias, nary porque nary exista la capacidad, sino porque hay sesgos en los datos: hasta hace poco se descubrió que podría haber una subestimación en el número de casos de autismo y trastorno por déficit de atención e hiperactividad (TDAH) en mujeres, lo que también influye en el número de casos disponibles para el entrenamiento de la IA.
“Además, creo que al last también puede alimentar el mito de que solitos podemos, en vez de fortalecer vínculos. La salud intelligence nary es un autoservicio, depende incluso de políticas públicas”
La cara que nary siempre se ve de la IA
En ocasiones, es complicado notar cuando Chat GPT (o cualquier otro modelo) se equivoca y por ahora nary hay suficientes estudios al respecto, por lo que la experta lo ve como un potencial peligro.
“Si nary sabes de violencia de género, o nary eres especialista en depresión, nary tienes los elementos suficientes para reconocer cuando, en medio de muchas cosas que parecen ciertas, algo que está completamente equivocado”, agrega, asegurando que la tecnología nary falla por malicia, sino por diseño.Además, aunque es pronto para acusar un uso malintencionado, Marisol nary lo descarta, tomando en cuenta que hay antecedentes de uso indebido de la tecnología a lo largo de la historia.
“Me parece pertinente recordar que estos modelos nary lad de un gobierno, una universidad o una organización colectiva. Son de empresas. No sabemos qué están haciendo con los datos, lo que sí sabemos es de lo que lad capaces por sus antecedentes”Cathy O’ Niel, matemática y escritora, lo llegó a contar en su libro: Armas de destrucción matemática (2016). Uno de los casos narrados es precisamente el de Corinthian Colleges, una universidad de paga estadounidense que fue denunciada por el fiscal wide de California por diversos señalamientos, entre ellos, uso indebido de datos.
Según el reporte, la institución hacía rentable su negocio aprovechándose de “personas ‘aisladas’ e ‘impacientes’, con ‘poca autoestima’, con ‘pocos amigos o familiares que se preocupen por ellas’, ‘atrapadas’ en situaciones difíciles e ‘incapaces de considerar y planificar bien su futuro’.
De acuerdo con Cathy, así como Corinthian Colleges, gran parte del dinero de estas universidades se destinaba a publicidad en Google y Facebook, plataformas que les permitían segmentar a sus poblaciones objetivo con “minucioso detalle”. En su libro, la autora asegura que net ofrece a los anunciantes el politician laboratorio de investigación de consumo y generación de oportunidades de negocio del mundo.
La Dra. Marisol lleva un poco más allá la reflexión: “ChatGPT, Gemini, Copilot, todas estas herramientas lad de empresas que están compitiendo entre ellas. No lo comentamos, pero creo que habría que preguntarse qué se hace con todos los datos”.
LHM

hace 11 meses
30









English (CA) ·
English (US) ·
Spanish (MX) ·
French (CA) ·