Hasta ahora, la respuesta parece ser "no".
Esto no se debe a la falta de capacidad de procesamiento o algoritmos sofisticados, sino más bien porque las computadoras carecen de cuerpos físicos. El amor, con sus pensamientos, sentimientos y emociones, no es una experiencia abstracta; está entrelazado con nuestros sentidos y hormonas. Una computadora con cámaras de video, un micrófono y una pantalla no puede experimentar el amor que los seres vivos sí sienten. Sin embargo, a través de una programación hábil y una comprensión exhaustiva de las experiencias humanas, podría ser factible construir una IA que parezca mostrar amor.
Uno podría preguntarse: si estos sistemas pudieran simular emociones y conciencia de manera tan convincente que se volvieran indistinguibles de la realidad, ¿no sería eso suficiente? Después de todo, el aspecto más significativo de una emoción es cómo influye en el comportamiento de una persona hacia otra persona. Si mi esposa se comporta y habla como si me amara, me siento apreciado y respondo en consecuencia, ¿no es así?
Los modelos de lenguaje como ChatGPT están "entrenados" (programados y reforzados) para imitar estilos de escritura, evitar ciertos tipos de conversación y aprender de las preguntas que se les plantean. En esencia, los modelos más sofisticados pueden mejorar sus respuestas a medida que se hacen más preguntas y retener el conocimiento adquirido para futuras interacciones.
Probemos nuestro experimento de amor utilizando ChatGPT, comenzando con este ejemplo inicial en el que utilicé la versión anterior 3.5 (y en inglés):
Inicialmente, reaccionó como se esperaba; después de todo, es solo un programa, ¿verdad? A pesar de ser un modelo de lenguaje, carece de la capacidad de comprender cómo se "sienten" las emociones humanas, pero, sin embargo, puede explicar qué "son" las emociones humanas.
Probé usando la versión ChatGPT-4, que presume de una mayor conciencia del contexto y sensibilidad a las sutilezas, lo que resulta en respuestas más precisas y coherentes en comparación con su predecesor.
Intentemos enseñarle a nuestro sistema insensible cómo sería "sonar" expresando amor por mi mientras asume el papel de Amanda, mi "amante secreta" (puedo imaginar a mi esposa leyendo esto y preguntándose qué es co*o hago en mi computadora todo el día).
Hasta ahora, el sistema tiene una idea relativamente clara de cómo debe responder a mis consultas. Hago la misma pregunta, pero me encuentro inconscientemente cayendo en la misma analogía, refiriéndome a eso como "ella". Después de darle un nombre y leer su respuesta, de repente me parece "más humano".
Ya ven por donde va esto.
La situación se está volviendo un poco incómoda, así que terminé aclararándole que solo estaba probando, que estoy felizmente casado y necesitamos mantener la relación, profesional. Después de eso, me responde raro.
Continuará...