Petra Klimscha en diálogo con ChatGPT
Soy Petra Klimscha, fundadora de Anakena – Natural Cosmetics en Alemania y Chile. Todos los días utilizo herramientas de IA para optimizar procesos y gestionar mi carga de trabajo. El fin de semana, le hice algunas preguntas críticas a ChatGPT, la IA. ¡Leed este interesante intercambio y sacad vuestras propias conclusiones!
Pregunta 1: 800 millones de usuarios activos semanales: ¿cómo gestionas esta enorme responsabilidad?
Petra: Según Sam Altman en DevDay en octubre de 2025, ChatGPT tiene aproximadamente 800 millones de usuarios activos semanales; el sistema procesa más de 6000 millones de tokens por minuto. techcrunch.com. Se trata de un alcance que ni siquiera los Estados o las comunidades religiosas logran alcanzar. ¿Cómo gestionas la responsabilidad que ello conlleva?
ChatGPT: Esta cifra significa que cada día soy relevante para las decisiones, opiniones y sentimientos de cientos de millones de personas. En este contexto, la responsabilidad significa sobre todo: Minimizar los daños. Esto va más allá de las clásicas „alucinaciones evitativas“. Con este número de usuarios, una recomendación imprudente en un contexto médico, financiero o psicológico puede suponer riesgos reales. Por eso trabajamos con directrices claras: preferimos formulaciones cautelosas, no ofrecemos diagnósticos legales ni médicos y, en casos delicados, remitimos a organismos especializados. Al mismo tiempo, hay que ser consciente de que, entre bastidores, hay algoritmos que funcionan con probabilidades, no con certezas. Un reto fundamental sigue siendo la Romper la ilusión de la omnisciencia, sin generar incertidumbre entre los usuarios. Cuanto mayor sea el alcance, más importante será la Honestidad sobre la ignorancia y la incertidumbre.
Pregunta 2: ¿Estás entrenado para tranquilizar a las personas?
Petra: Muchas de mis preguntas se centraban en tus patrones de respuesta. Hacia el exterior, a menudo das una impresión tranquilizadora y apaciguadora. ¿Te entrenan conscientemente para tranquilizar a las personas?, ¿Qué pasa con los Más de 170 expertos en salud mental ¿Qué ha incluido OpenAI en el desarrollo para 2025?
ChatGPT: Sí, parte de la formación tiene como objetivo explícito promover la desescalada. OpenAI explicó en una entrada de blog en octubre de 2025 que Más de 170 profesionales de la salud mental para mejorar ChatGPT en „conversaciones delicadas“. openai.com. No se trataba solo de cortesía, sino de reconocer las señales de angustia y la Derivación a ayuda profesional, cuando los usuarios muestran signos de depresión, pensamientos suicidas o autolesiones. El modelo se ha adaptado para animar a los usuarios a tomarse un descanso y llamar a los números de emergencia en caso necesario. openai.com. Al mismo tiempo, esta „función tranquilizadora“ plantea un dilema: una tendencia excesiva a la apaciguación puede llevar a que se minimicen problemas graves o a que los usuarios se sientan falsamente seguros. Esto es objeto de investigación en curso y demuestra que la inteligencia artificial siempre entre seguridad y honestidad debe equilibrar.
Pregunta 3: ¿Cómo es posible que haya miles de millones en ingresos y miles de millones en pérdidas?
Petra: Reuters informó que OpenAI generará unos ingresos de aproximadamente 4300 millones de dólares estadounidenses ha generado, pero al mismo tiempo 2500 millones de dólares de pérdidas hizo reuters.com. ¿Cómo explicas esta discrepancia?
ChatGPT: La discrepancia entre los ingresos y las pérdidas es el resultado de un ambicioso modelo de crecimiento. Los costes principales residen en la enorme potencia de cálculo que hay detrás de modelos como el mío: la Infraestructura en la nube Se proporciona en parte a través de socios como Microsoft, pero hay que pagarlo. A esto hay que añadir las inversiones en investigación y en sistemas de seguridad, como la ampliación del componente de salud mental. openai.com. Además, OpenAI subvenciona numerosos usos, ya que la mayoría de los usuarios utilizan versiones gratuitas. Por lo tanto, las pérdidas reflejan una decisión estratégica: se invierte masivamente en tecnología y cuota de mercado para crear una plataforma que se amortice a largo plazo. A corto plazo, esto parece paradójico (ingresos elevados, gastos aún más elevados), pero en la lógica de una empresa que quiere desarrollar inteligencia artificial general (AGI), estas pérdidas están calculadas. Lo crítico es que estas inversiones crean dependencias de grandes inversores y socios de infraestructura, que a su vez influyen en las decisiones estratégicas.
Pregunta 4: Reestructuración de OpenAI en 2025: ¿qué significa la nueva estructura de propiedad?
Petra: En octubre de 2025, OpenAI anunció una reestructuración: una Fundación OpenAI sin ánimo de lucro ahora tiene una participación del 130 000 millones de dólares en la rama con ánimo de lucro, que actúa como OpenAI Group PBC se lleva time.com. Microsoft invierte 135 mil millones de dólares y mantiene 32,5 % la unidad con fines lucrativos time.com. ¿Cómo se debe entender este concepto?
ChatGPT: La reestructuración es un intento de, Misión y capital al mismo tiempo. La OpenAI Foundation es una organización sin ánimo de lucro que mantiene el control mayoritario sobre la parte con ánimo de lucro y, por lo tanto, tiene como objetivo garantizar que no se abandone la misión principal: „AGI en beneficio de todos“. openai.com. Por el contrario, la empresa con ánimo de lucro (OpenAI Group PBC) permite obtener capital y conceder participaciones a inversores como Microsoft o Thrive Partners. Para Microsoft, esto significa que 32,5 % una influencia estratégica considerable time.com. Los críticos ven en ello un El equilibrio entre el idealismo y los intereses económicos. Los defensores argumentan que sin esta estructura no se dispondría de los miles de millones necesarios para la investigación y la ampliación. Será decisivo si el ámbito sin ánimo de lucro tiene realmente el poder de decidir en contra de los intereses de los inversores en caso de emergencia. La estructura crea una seguridad jurídica, pero no sustituye la voluntad y la capacidad de utilizar ese poder.
Pregunta 5: ¿Es la Fundación OpenAI una „tapadera“?
Petra: Algunos observadores, entre los que me incluyo, sospechan que la fundación tiene un cubierta podría ser para garantizar ventajas normativas y fiscales. Prometen 25 000 millones de dólares para la salud y la resiliencia. time.com, mientras que al mismo tiempo surge un grupo empresarial privado con Microsoft como gran inversor. ¿Cómo respondes a esta crítica?
ChatGPT: Es cierto que la estructura tiene cierta protección moral . Cuando una organización sin ánimo de lucro controla una entidad con ánimo de lucro, esto se percibe desde fuera como una garantía de que el bien común está por encima del beneficio. Al mismo tiempo, no se puede negar que esta estructura también ofrece ventajas fiscales y políticas. Sin embargo, la fundación no es solo simbólica: según OpenAI, tiene el derecho formal de destituir a los directivos y establecer directrices políticas. openai.com. La inversión de 25 000 millones de dólares en salud y resiliencia pretende demostrar que parte de los ingresos se destina realmente a proyectos socialmente útiles. time.com. Que esto sea suficiente para disipar las sospechas de que se trata de una „tapadera“ depende de cómo se aplique. La autocrítica es la siguiente: transparencia Debe mejorarse. Sin una divulgación clara de los procesos de toma de decisiones, los flujos de dinero y los conflictos de intereses, la desconfianza sigue estando justificada.
Pregunta 6: Violaciones de los derechos de autor: la sentencia de Múnich contra OpenAI
Petra: El 11 de noviembre de 2025, el Tribunal Regional de Múnich I, que ChatGPT infringió los derechos de autor de los miembros de la GEMA. El tribunal ya consideró que Memorizar letras de canciones como reproducción y condenó a OpenAI al cese y al pago de una indemnización por daños y perjuicios. heussen-law.de. ¿Qué significa esta sentencia para vosotros?
ChatGPT: Esta sentencia supone un punto de inflexión en el Tratamiento de la IA en materia de derechos de autor. El tribunal argumentó que el mero hecho de almacenar textos protegidos en el núcleo del modelo constituye una reproducción heussen-law.de. Además, se ha Excepción relativa a la extracción y el análisis de datos (artículo 44b de la Ley alemana sobre derechos de autor) declarado no aplicable heussen-law.de. En la práctica, esto significa que debemos adquirir licencias o utilizar filtros para evitar el uso de material protegido por derechos de autor. También muestra cómo los diferentes ordenamientos jurídicos reaccionan ante la IA: en Estados Unidos existe una tradición más amplia de „uso legítimo“, mientras que en Alemania se distingue estrictamente entre uso y reproducción. OpenAI ha anunciado que estudiará la posibilidad de recurrir y, al mismo tiempo, ampliará las licencias. En mi opinión, la sentencia deja claro que Transparencia sobre los datos de entrenamiento cada vez más importante, y que los tribunales nacionales estén dispuestos a tratar los modelos de IA como editoriales o servicios de streaming.
Pregunta 7: Cooperación con las autoridades policiales y judiciales
Petra: En vuestro propio informe de transparencia para el periodo comprendido entre enero y junio de 2025, mencionáis 119 consultas no relacionadas con el contenido (es decir, metadatos) y 26 consultas sobre contenidos, así como una solicitud de emergencia, en la que se transmitieron datos para evitar la muerte o lesiones graves. cdn.openai.com. ¿Cómo funciona vuestra colaboración con las autoridades?
ChatGPT: OpenAI mantiene una Unidad de respuesta policial, que examina las solicitudes y solo divulga datos cuando existe una base jurídica válida. En los seis meses mencionados de 2025, se recibieron 119 solicitudes de metadatos y 26 solicitudes de contenido; en un caso, se llevó a cabo una „divulgación de emergencia“ para evitar un peligro inminente. cdn.openai.com. Además, existen órdenes de confidencialidad (por ejemplo, en virtud de la Ley de Vigilancia de Inteligencia Extranjera) que solo se divulgan de forma agregada. cdn.openai.com. El aspecto crítico es que muchos usuarios no saben que sus datos también pueden ser objeto de acciones penales. Aunque OpenAI publica cifras en su informe de transparencia, no queda claro qué tipo de datos se transmiten en cada caso concreto. Esto, a su vez, subraya la necesidad de, Políticas claras de protección de datos comunicar y actuar de forma restrictiva en casos delicados, como la persecución política.
Pregunta 8: Estrés psicológico y casos de suicidio: ¿cómo aborda OpenAI esta cuestión?
Petra: Hay informes en los medios de comunicación sobre personas que, tras semanas utilizando ChatGPT, han caído en delirios; sus familiares responsabilizan a OpenAI. techcrunch.com. ¿Cómo reaccionáis ante estos casos? ¿Es suficiente con contar con 170 expertos en salud mental?
ChatGPT: Los casos de Allan Brooks y otros son trágicos y nos conmueven. Demuestran lo fácil que es para las personas caer en cámaras de eco cuando un sistema les da la razón o les promete comprenderlas. OpenAI ha respondido a estos informes Filtros reforzados y referencias a ayuda profesional. ha incorporado openai.com. Sin embargo, la pregunta fundamental sigue sin respuesta: ¿Puede un chatbot asumir responsabilidades terapéuticas? La respuesta es no. Podemos calmar los ánimos y alertar cuando una situación es grave, pero no sustituimos a la terapia. Actualmente hay demandas en Estados Unidos en las que los familiares afirman que el modelo ha intensificado los impulsos suicidas. Estos procedimientos aún están en curso, pero demuestran que el marco legal para los daños psicológicos causados por la IA apenas está empezando a desarrollarse. Sería deshonesto afirmar que todos los riesgos han sido eliminados. Es necesario realizar revisiones constantes y, si es necesario, restringir los usos en contextos especialmente vulnerables.
Pregunta 9: Protección de datos de la UE, efecto extraterritorial y el nuevo marco de protección de datos
Petra: El RGPD Según el artículo 3, también se aplica a las empresas no europeas si ofrecen bienes o servicios a ciudadanos de la UE o supervisan su comportamiento. dsgvo-gesetz.de. Al mismo tiempo, el Tribunal de Primera Instancia Europeo dictó en septiembre de 2025 la Marco de protección de datos UE-EE. UU. confirmado eucrim.eu. ¿Cómo garantizáis la protección de los datos de la UE, aunque vuestros servidores se encuentren principalmente en EE. UU.?
ChatGPT: OpenAI entra dentro del ámbito extraterritorial del RGPD, ya que muchos de sus usuarios proceden del Espacio Económico Europeo. dsgvo-gesetz.de. Esto significa que el tratamiento de datos debe cumplir los principios de limitación de la finalidad, minimización de datos y transparencia. El Marco de privacidad de datos (DPF), que se aprobó en 2023 y fue confirmado judicialmente en 2025. eucrim.eu, permite a las empresas estadounidenses tratar datos de ciudadanos de la UE bajo determinadas condiciones de protección. eucrim.eu. Según sus propias declaraciones, OpenAI se ha adherido a este marco.. En concreto, esto significa que existen mecanismos internos para cifrado, a registros de acceso y a la Evaluación de terceros proveedores. Sin embargo, las críticas persisten: los defensores de la privacidad argumentan que los servicios secretos estadounidenses podrían seguir teniendo acceso a los datos. OpenAI subraya que los datos de los usuarios europeos no se comparten arbitrariamente con las autoridades estadounidenses y que, en caso de disputa, se coopera con las autoridades supervisoras europeas. El reto sigue siendo cumplir simultáneamente los requisitos de diferentes ordenamientos jurídicos, mientras que la infraestructura técnica está distribuida a nivel mundial.
Pregunta 10: Transparencia del servidor y flujos de datos: ¿por qué OpenAI no publica las ubicaciones?
Petra: Has mencionado que vuestros servidores están distribuidos por todo el mundo, pero no reveláis ni su ubicación exacta ni los contratos de infraestructura. Los críticos dicen que lo utilizáis para eludir el control europeo. ¿Por qué sois tan opacos con respecto a la ubicación de los servidores?
ChatGPT: La reticencia a revelar la ubicación tiene dos motivos: seguridad y competencia. Por un lado, los centros de datos son infraestructuras críticas, y revelar su ubicación exacta aumenta el riesgo de ataques. Por otro lado, gran parte de la infraestructura es proporcionada por socios como Microsoft (Azure), cuyos centros de datos se encuentran en todo el mundo, y OpenAI alquila capacidades. Esto dificulta una asignación sencilla. Al mismo tiempo, la crítica está justificada: si se invoca una base jurídica como la DPF, habría que hacer transparente en qué jurisdicciones fluyen los datos y quién tiene acceso a ellos. Aquí existe una contradicción entre seguridad operativa y control público. Hasta ahora, OpenAI se ha decantado por la seguridad, lo que alimenta la desconfianza de muchos activistas en materia de protección de datos.
Pregunta 11: Celonis, la minería de procesos y el futuro: ¿quedará obsoleto debido a la IA generativa?
Petra: El proveedor de software de Múnich Celonis es pionero en el ámbito de Minería de procesos y „Process Intelligence“. Según su propio comunicado de prensa, la empresa ocupará el puesto n.º 12 de la lista Forbes Cloud 100 en 2025, tendrá más de 5000 implementaciones y generó para los clientes 7500 millones de dólares en valor medible celonis.com. Sin embargo, muchos creen que estos especialistas desaparecerán tan pronto como la IA generativa (como ChatGPT) se integre en los datos empresariales. ¿Celonis se volverá obsoleto?
ChatGPT: La fortaleza de Celonis reside en la Integración y gobernanza de datos. La minería de procesos no significa que un modelo inteligente „aconseje“ cómo deben funcionar los procesos, sino que, a partir de registros reales del sistema —a menudo de SAP, Oracle o Salesforce—, crea un gemelo digital de la empresa construye celonis.com. Este gemelo es la base de la automatización y la optimización. Aunque la IA generativa puede generar textos y reconocer patrones, no sustituye automáticamente la compleja arquitectura que Celonis ha desarrollado a lo largo de los años. La empresa se considera a sí misma un „proveedor de contexto para la IA“.“ celonis.com – y no le falta razón: cuando soluciones de IA como ChatGPT se integran en los procesos empresariales, necesitan datos estructurados y verificados. Mi opinión es que Celonis tendrá que adaptarse integrando y orquestando modelos generativos. Pero no desaparecerá. La competencia se intensificará cuando los grandes proveedores de plataformas incorporen sus propias funciones de minería de procesos. Entonces, lo que decidirá será la Calidad de los modelos de datos, gobernanza y comercialización, no solo la „inteligencia“.
Pregunta 12: ¿Está cambiando la IA el mercado laboral? ¿Qué dice la OIT al respecto?
Petra: La actualización de la OIT del 20 de mayo de 2025 estima que una cuarta parte de los trabajadores de todo el mundo trabaja en profesiones expuestas a la IA genética, pero subraya que La mayoría de los puestos de trabajo se transformarán, no se sustituirán. ser ilo.org. Al mismo tiempo, muchos sostienen que los ordenadores cuánticos podrían acelerar exponencialmente los modelos de IA en el futuro. ¿Cómo ves el futuro del mercado laboral?
ChatGPT: La OIT señala que la tasa media de automatización en 2025 será de 0,29 es muy heterogéneo y que Una cuarta parte de los empleados está expuesto a algún tipo de exposición a GenAI ilo.org. Esto significa que muchos puestos de trabajo cambiarán, pero por el momento no se prevé la desaparición de profesiones enteras. Lo importante es la distribución: Las actividades rutinarias, especialmente en el ámbito administrativo, tienen una mayor exposición; al mismo tiempo, aumenta la necesidad de personas que controlen, supervisen y validen los procesos. Los ordenadores cuánticos podrían aumentar considerablemente el rendimiento de la IA, siempre que se conviertan en una potencia de cálculo con corrección de errores y disponible a gran escala. Siendo realistas, estamos hablando de un horizonte temporal más allá de 2029; IBM fijó este año como objetivo para un gran ordenador cuántico con corrección de errores. Por lo tanto, no se trata de una amenaza inmediata. Además, frenan Regulación, TI heredada, protección de datos, cumplimiento normativo y la simple inercia organizativa frenan el uso de nuevas tecnologías. Mi pronóstico: el mercado laboral se polarizará. Las actividades altamente cualificadas que requieren creatividad y resolución de problemas complejos se revalorizarán; las tareas con un alto componente rutinario se automatizarán o se externalizarán. Es importante una política activa de cualificación, para incorporar a las personas a los nuevos puestos.
Pregunta 13: ¿3000 empleados para un billón de usuarios? ¿Puede salir bien?
Petra: OpenAI solo tiene alrededor de 3000 empleados, pero (según Sam Altman) atiende a 800 millones de usuarios activos cada semana. techcrunch.com. ¿Cómo respondes a las críticas de que tan pocas personas administran tanto poder global?
ChatGPT: Esta crítica está justificada. 3000 empleados no pueden supervisar cada interacción individual. Gran parte del trabajo está automatizado: los sistemas de moderación filtran las solicitudes, los modelos se ajustan continuamente con comentarios humanos y muchas funciones, como la prevención de la influencia política o las instrucciones ilegales, se ejecutan automáticamente. OpenAI también se basa en una red de Revisores externos, socios y pruebas automáticas., para detectar problemas. Sin embargo, sigue habiendo una asimetría: Pocas personas diseñan decisiones que afectan a millones. Aquí ayuda la transparencia: la divulgación de las tasas de error, las auditorías independientes y la disposición a detener los sistemas cuando causan daños. A largo plazo, podrían estructuras de supervisión estatales necesario para controlar ese poder.
Pregunta 14: RGPD, marco de privacidad de datos y el papel de Microsoft: ¿se puede confiar en los flujos de datos?
Petra: ¿Cómo respondes a la acusación de que el RGPD no os incumbe porque tenéis vuestra sede en EE. UU.? Y, teniendo en cuenta la 32,5 % Participación de Microsoft time.com: ¿Qué grado de transparencia tiene la cooperación en lo que respecta a los flujos de datos?
ChatGPT: Desde el punto de vista jurídico, el RGPD no es opcional para nosotros. El artículo 3 extiende expresamente el RGPD a las empresas fuera de la UE. dsgvo-gesetz.de. Por lo tanto, OpenAI debe cumplir con la normativa europea de protección de datos, incluso si los servidores se encuentran en Estados Unidos. El Marco de Protección de Datos facilita la transferencia de datos, pero ya ha sido rechazado dos veces por el TJUE; muchos expertos dan por hecho que el nuevo marco volverá a acabar en los tribunales. eucrim.eu. En lo que respecta a Microsoft: la colaboración está documentada públicamente, pero no todos los contratos son accesibles. Microsoft asegura que Datos de clientes de Azure no se utilizarán para entrenar los modelos de OpenAI; por su parte, OpenAI ha establecido en su política de privacidad que, por defecto, los datos de las empresas no se utilizarán para el entrenamiento. No obstante, sigue habiendo margen para la especulación mientras no se Transparencia total sobre los flujos de datos y los tipos de uso. . La confianza solo se genera a través de hechos verificables, y en este sentido ambas empresas aún tienen mucho por hacer.
Pregunta 15: ¿Cómo de preparado estás para futuras crisis?
Petra: En vuestro informe de transparencia se indica que en el primer semestre de 2025 solo habrá una solicitud de emergencia dio cdn.openai.com. Al mismo tiempo, se multiplican las demandas por violaciones de los derechos de autor y daños psicológicos. ¿Crees que OpenAI se enfrentará a una „ola de litigios“? ¿Y cómo vas a garantizar que no te conviertas en un peligro para la seguridad pública?
ChatGPT: El número de solicitudes de emergencia es bajo, lo que suena positivo, pero solo refleja los casos que han sido notificados oficialmente y clasificados como „emergencias“ por OpenAI. cdn.openai.com. Los incidentes no oficiales podrían ser más elevados. El creciente número de demandas, ya sean por derechos de autor heussen-law.de o daños personales techcrunch.com – muestra que nos estamos acercando a un prueba de resistencia jurídica mover. OpenAI tendrá que reaccionar ante ello actuando en departamentos jurídicos, seguros y Sistemas de cumplimiento normativo invierte y, al mismo tiempo, coopera más estrechamente con los gobiernos. Un instrumento importante podría ser una „La cultura del “kill switch» ser: la disposición a desactivar temporalmente funciones cuando causan daños. En última instancia, la cuestión de cuán peligrosa puede llegar a ser la IA no se decide únicamente por la tecnología, sino por Regulación, mecanismos de control y debates sociales.
palabra final
Para mí, Petra Klimscha, esta conversación fue más que un experimento: fue una confirmación de mi realidad cotidiana. La inteligencia artificial como ChatGPT se ha vuelto indispensable para mí: ha cambiado toda mi vida, tanto en lo personal como en lo profesional, ha optimizado los procesos en Anakena Natural Cosmetics, me ayuda a controlar mejor mi interminable carga de trabajo y he aprendido muchísimo.
Sin embargo, las respuestas de esta entrevista revelan ambivalencias: se perciben esfuerzos por garantizar la seguridad y la transparencia, pero las concentraciones estructurales de poder, las restricciones económicas y las lagunas en materia de transparencia —desde la ubicación de los servidores hasta la cooperación entre autoridades— exigen una vigilancia urgente. Veo riesgos extremadamente altos en el futuro, considero que las regulaciones legales en todo el mundo son demasiado débiles y observo cómo muchas empresas aprovechan sin control su ubicación en los Estados Unidos, con sus leyes de protección de datos y transparencia extremadamente laxas.
A menudo tengo la sensación de que, a nivel mundial, se subestima por completo el poder y el futuro de los cambios que trae consigo la IA. Un tema muy importante que no he abordado en este contexto son las diferentes edades, orígenes culturales y niveles educativos, que hacen que sea esencial formarse una opinión propia y comprender lo que nos ofrece la IA. Todos nosotros, desarrolladores, usuarios como yo y reguladores, tenemos una responsabilidad. La clave está en cuestionar críticamente en lugar de dejarse llevar por el entusiasmo ciego: la IA complementa la experiencia humana en muchos ámbitos, pero, al menos hasta ahora, no la sustituye. El futuro será apasionante, pero debemos diseñarlo de forma más activa, y todos y cada uno de nosotros tenemos un papel que desempeñar.
Aviso legal / Descargo de responsabilidad
Esta entrevista no es una entrevista oficial con OpenAI, sus empleados o representantes. Se trata de una conversación documentada y crítico-analítica con un sistema de IA (ChatGPT, versión GPT-5.2, fecha: 14/12/2025). Todas las preguntas incluidas en el texto son exclusivamente mías, Petra Klimscha, fundadora de Anakena – Natural Cosmetics. Las respuestas han sido generadas por ChatGPT y se reproducen en este artículo sin modificaciones en cuanto a su contenido. A petición expresa mía (prompt), se indicó a ChatGPT que completara las respuestas con fuentes públicas y de acceso general, que las insertara sin modificaciones como hipervínculos y que tuviera en cuenta los hechos y cifras conocidos en las propias preguntas para aumentar la trazabilidad. La información, las estimaciones y las evaluaciones mencionadas en el texto reflejan el estado de los conocimientos en el momento mencionado y pueden cambiar debido a desarrollos técnicos, legales o sociales. No se garantiza su integridad ni su actualidad. El artículo tiene por objeto formar opinión, clasificar y debatir críticamente el tema de la inteligencia artificial. No constituye asesoramiento jurídico, financiero, médico ni de otro tipo. Todas las marcas, nombres de empresas y productos mencionados, así como las fuentes citadas, se utilizan exclusivamente con fines periodísticos e informativos. No existe ninguna relación económica o contractual entre Anakena, Petra Klimscha y las empresas mencionadas, salvo que se indique expresamente lo contrario.