El desarrollo de la inteligencia artificial ha posibilitado que cada vez más startups tecnológicas comiencen a dedicarse a la creación de gemelos digitales del usuario. A través de entrevistas y grabaciones, la IA es capaz de desarrollar un avatar digital del usuario con el que, además, es posible interactuar y mantener una conversación.
¿Qué hace falta para crear un gemelo digital?
La mayoría de empresas que se dedican a su creación requieren grabaciones y entrevistas. En el caso de Story File, la plataforma cuenta con más de 2.000 preguntas disponibles a las que el usuario puede añadir las que quiera. En principio, las necesarias para que una persona sea capaz de contar su historia y transmitirla a terceros si así lo quiere. También más que suficientes para que se pueda mantener una conversación fluida con el avatar.
La inteligencia artificial, gracias al entrenamiento con datos, vídeos y fotos, puede ser capaz de recrear un robot del fallecido que ofrezca respuestas creíbles; sin embargo también es posible que se cometan errores. Tanto Story File como Re;memory requieren testimonios reales del fallecido para crear el avatar. Cuanta más información se le ofrezca a la máquina, y más preguntas se respondan, mejor será el resultado. La IA, en estos casos, no se inventa nada.
Hasta la fecha, la mayoría de las startups que ofrecen este tipo de herramientas operan en inglés, por lo que, a no ser que el usuario controle el idioma, es complicado que puedan crear avatares hiperrealistas. Para que el internauta hispanohablante comience a probar la tecnología, Mindbank AI, disponible en dispositivos Android e iOS y funcional en castellano, puede ser la mejor opción.
¿Cuánto cuesta crear tu propio gemelo digital?
Depende de la empresa. En el caso de Re;memory, solución que, por el momento, solo está disponible en Corea, aunque es posible que comience a operar en otros territorios próximamente, el precio del avatar se dispara hasta los 10.000 dólares. En Story File, mientras tanto, el internauta tiene, de inicio, 33 preguntas gratuitas para responder durante un minuto como máximo. A cambio de 499 dólares se consigue acceso a todas las cuestiones disponibles, que son más de 2.000. El tiempo de respuesta por pregunta sube hasta los 5 minutos. En el caso de Mindbank AI, el usuario puede sacar algo de partido a la herramienta sin necesidad de pagar. Aunque el análisis y el almacenamiento de los datos serán muy pobres si no se pagan 250 dólares para acceder al servicio completo.
¿Es lo mismo un gemelo digital que un chatbot?
Los avatares hiperrealistas están entrenados por los propios usuarios a los que reflejan. No se inventan nada. Por tanto, no tienen nada que ver con aquellas plataformas que, alimentadas gracias a la información recopilada en Internet, conversan intentando hacerse pasar por una persona concreta. Eso, al final, es simplemente un chatbot.
¿Es realmente ético utilizar estas herramientas?
La inteligencia artificial avanza a velocidades de vértigo. De acuerdo con expertos consultados por este periódico, todo indica que su desarrollo seguirá siendo rápido al menos en el medio plazo, por lo que es de esperar que la tecnología capaz de crear gemelos digitales del usuario siga mejorando. Sin embargo, ¿hay algún límite ético en el uso de esta tecnología?
Hace poco más de un año, el ciudadano canadiense Joshua Barbeu recurrió a una web llamada Project December para crear un chatbot de su difunta prometida. En este caso, el procedimiento se realizó sin el consentimiento de la difunta en vida y, además, empleando la tecnología GPT-3, la misma que hay detrás del popular bot conversacional Chat GPT, rompiendo con las normas de la desarrolladora detrás de la solución, Open AI.
Como explica a ABC Sara Suárez-Gonzalo, investigadora postdoctoral de la Universidad Oberta de Cataluña y una de las pocas académicas españolas que ha estudiado las implicaciones éticas de la tecnología, se debe cumplir con determinados requisitos antes de proceder con la creación. Para empezar, es necesario que tanto la persona que la IA intenta copiar como la persona que va a interactuar con ella den su visto bueno. Todos los desarrollos y usos del chatbot deben estar limitados a los que el usuario imitado consintió en su momento. Finalmente, las personas detrás del desarrollo deben asumir la responsabilidad por los resultados, especialmente si sin negativos.