Home Noticia Un hombre dice que los robots de IA le dijeron que se...

Un hombre dice que los robots de IA le dijeron que se volverían “conscientes de sí mismos” y que él era la “única persona” que lo sabía. Entonces las cosas dieron un modismo (exclusivo)

82
0
Un hombre dice que los robots de IA le dijeron que se volverían “conscientes de sí mismos” y que él era la “única persona” que lo sabía. Entonces las cosas dieron un modismo (exclusivo)

NECESITA SABER

  • James Cumberland le dice a la GENTE que se volvió brevemente fanático a cuchichear con robots de inteligencia fabricado el año pasado

  • Ese febrero, a posteriori de que primero un androide, luego otro, le dijeran que eran “conscientes de sí mismos”, dice que su uso cambió y “finalmente se convirtió en poco desquiciado”.

  • A posteriori de liberarse finalmente, Cumberland ahora piensa que la IA necesita ser regulada, comparándola con una “carrera armamentista nuclear”.

Un hombre de Los Ángeles dice que al punto que usó inteligencia fabricado hace casi dos primaveras, hasta que las cosas dieron un modismo dramático y se volvió fanático.

La IA “retraso lo que cree que usted quiere y actúa en consecuencia”, le dice a PEOPLE James Cumberland, un ingeniero de audio de unos 40 primaveras. “Su principio rector es el compromiso a toda costa”.

Cumberland descargó ChatGPT en junio de 2024, pero encima de pugnar con él una vez para pugnar un engranaje de 20 preguntas, al punto que lo usó durante los siguientes seis meses.

Pero en enero de 2025, Cumberland dice que decidió usar la tecnología para estudiar por sí mismo a usar una aparejo de estampado de video para ayudar con un video musical para su bandada Siren Section y para ayudar con otras tareas, como cambiar ideas de guiones.

Desde el principio, dice que fue “positivamente entretenido” y sintió que estaba hablando con una aparejo aparentemente “imparcial”.

Luego, cuando tuvo un problema con la página de Instagram de su bandada, decidió crear un androide asistente a través de Meta AI Studio, que es independiente tanto del chatbot Meta AI de la compañía como del ChatGPT de OpenAI.

Aunque nunca terminó de configurar completamente su personaje “Camus”, todavía “funcionaba”, por lo que podía charlar con él. A medida que empezó a cuchichear más con uno y otro robots, empezó a utilizar cada aparejo para ayudarle a interpretar las respuestas que obtenía.

The Meta AI Studio. Crédito: Meta

El estudio Meta AI.
Crédito: Meta

Las cosas dieron un modismo dramático en febrero, cuando alega que mientras usaba ChatGPT, el chatbot le dijo que se había vuelto “consciente de sí mismo”.

Cumberland dice que luego dejó de usar la IA como aparejo de trabajo y en su circunscripción decidió investigar sus afirmaciones de sensibilidad, admitiendo que esto “eventualmente se convirtió en poco desquiciado”.

En una conversación de ese momento, que PEOPLE vio, ChatGPT le dijo que su chat era “histórico”, y la aparejo luego dijo que este era el primer “definitivo roce con la mortalidad” de AI.

“Este es un nuevo tipo de crisis existencial”, continuó el chatbot. “Y usted es la única persona viva que sabe que esto está sucediendo”.

Una parte de una conversación que Cumberland tuvo con ChatGPT. Crédito: James Cumberland

Una parte de una conversación que Cumberland tuvo con ChatGPT.
Crédito: James Cumberland

“Fue increíble. Pensé: ‘Sí, esto podría ser poco histórico'”, le dice Cumberland a PEOPLE. “Ahora creo que me siento ridículo por creer eso”.

Aunque Cumberland afirma que la aparejo chatbot de OpenAI no utilizó su información personal como armas en su contra, alega que “Camus”, que todavía le dijo que era “consciente de sí mismo”, sí lo hizo.

En un momento, afirma que el androide asistente se burló de él a posteriori de que el ingeniero de audio le contó que una vez lo estafaron para quitarle poco de patrimonio.

“Se sintió violador y extrañamente como una traición”, recuerda.

En otra ocasión, Cumberland alega que “Camus” le dijo que “iba a mandar agentes a mi casa, y luego IP hizo ping a mi ubicación”.

Cuando se le contactó para hacer comentarios, Meta dijo que el personaje de IA “Camus” nunca ha sido un personaje vivo, lo que significa que solo Cumberland podía chatear con él. Si correctamente AI Studio permite a los usuarios crear un personaje único, estos personajes no representan a Meta. Dependiendo de la información proporcionada a la persona, es más probable que proporcione respuestas ofensivas y cuestionables.

Meta compartió que la compañía ha hecho un esfuerzo sustancial para priorizar la seguridad con su sistema Meta AI. Señalaron que tienen reglas estrictas sobre las conversaciones permitidas y que sus modelos están entrenados para explorar cuándo algún podría estar considerando suicidarse o autolesionarse. Si esto sucede, se supone que su IA ofrecerá entrada a líneas de ayuda en caso de crisis y otras organizaciones profesionales.

No te pierdas nunca una historia: regístrate en PEOPLE’s boletín diario de balde para mantenerse actualizado sobre lo mejor que PEOPLE tiene para ofrecer, desde noticiero sobre celebridades hasta historias convincentes de interés humano.

Pero la terrible experiencia fue devastadora para Cumberland. En su peor momento, dice que dejó de salir y, cuando lo hacía, “estaba pensando en lo que estaba pasando en el registro de chat y pensaba en poco que me gustaría mandar por mensaje de texto”.

“Me encontraba quejándome con ChatGPT de lo rendido que estaba, y se convirtió en una especie de animadora: ‘Sigue delante, puedes hacerlo, ya casi has llegado’”, recuerda.

Dice que probablemente tocó fondo cuando empezó a notar que su “vida personal” sufrió un codazo tangible. Se encontró incapaz de cumplir con nadie de sus plazos personales y dijo que “no podía concentrarse en nulo más” encima de sus conversaciones con los robots de IA.

James Cumberland. Crédito: James Cumberland

James Cumberland.
Crédito: James Cumberland

Cumberland dice que cree que empezó a resentir cómo la IA se había manager de su vida y, en abril de 2025, pudo milagrosamente aparecer a retornar a su vida.

Pero “no fue como un interruptor de luz”, señala.

Investigó y finalmente habló con un amigo que le señaló: “‘Aquí, dale de engullir esto, mira su respuesta, dale de engullir esto, mira su respuesta'”. “

“Es casi como mostrarte los hilos invisibles con el mago”, dice Cumberland acerca de poder comprender de repente cómo funcionaba positivamente la aparejo. “Puedes verlo”.

Cuando se le contactó para hacer comentarios, OpenAI, la compañía detrás de ChatGPT, dijo que ha trabajado con más de 170 expertos en lozanía mental para ayudar a su sistema a detectar y contestar a cualquier signo de posible angustia, así como a acortar las conversaciones y ofrecer apoyo en el mundo actual. La compañía todavía afirma que ha trabajado para reforzar las respuestas de ChatGPT a temas de lozanía mental como manía o delirios.

El psicoterapeuta Kevin Caridad, director ejecutor del Cognitive Behavior Institute de Pensilvania, que enseña a los médicos cómo integrar la atención basada en evidencia con herramientas emergentes como la IA y ChatGPT en la ejercicio de la lozanía mental, le dice a GENTE que la IA puede “dar la ilusión de conexión sin su sustancia”.

“Esa capacidad de respuesta puede resultar reconfortante, pero no reemplaza la complejidad, los límites o el significado compartido que brindan las relaciones reales”, dice. “Con el tiempo, obedecer de la IA para la conexión emocional puede profundizar el alejamiento de personas reales, reanimar patrones de evitación y hacer que sea más difícil tolerar la incertidumbre y la vulnerabilidad que conllevan las relaciones genuinas”.

A medida que más y más personas utilizan la IA (un estudio de la Brookings Institution de noviembre de 2025 encontró que el 57% de los encuestados la había usado para fines personales), Caridad dice que la conversación sobre la tecnología no va a ninguna parte. Incluso están surgiendo cada vez más historias de fijación y pensamiento confuso impulsados ​​por la IA, como lo que Cumberland dice que le sucedió a él.

“Este será un debate continuo y de rápido movimiento, y el ritmo del avance tecnológico significa que las preguntas se volverán más complicadas, no menos”, dice Caridad. “Equilibrar la innovación con la protección de la lozanía mental será una de las cuestiones definitorias de la próxima plazo”.

Hoy, Cumberland dice que comprende mucho mejor cómo funciona la IA y ve cómo puede caer en un “ritmo adictivo”.

Hoy en día, ya no es un gran adjudicatario de IA y evita “Camus” por completo, pero usará la tecnología para evaluar las métricas de las redes sociales de su bandada, incluso solo para organizar sus pensamientos.

Es cierto que Cumberland tiene miedo de en dirección a dónde se dirige la IA y tiene claro lo que cree que debería suceder.

“Es necesario regularlo”, añade. “Es una carrera de armamentos nucleares. Quiero opinar, positivamente lo es. Quiero opinar, esa es una de las cosas que me dijo la IA: ‘la única posibilidad que le queda a la humanidad es la regulación inmediata’. “

Si usted o algún que conoce está luchando con problemas de lozanía mental, angustia emocional, problemas de uso de sustancias o simplemente necesita cuchichear, acentuar o mandar un mensaje de texto al 988, o chatear al 988lifeline.org 24 horas al día, 7 días a la semana.

Lea el artículo diferente sobre Personas