paint-brush
¿ChatGPT se incriminará a sí mismo? Los reporteros intervienen y ChatGPT se defiendepor@anywhichway
1,146 lecturas
1,146 lecturas

¿ChatGPT se incriminará a sí mismo? Los reporteros intervienen y ChatGPT se defiende

por Simon Y. Blackwell24m2023/01/31
Read on Terminal Reader

Demasiado Largo; Para Leer

Hay múltiples demandas relacionadas con el uso de datos de acceso público para entrenar IA como ChatGPT. Microsoft, GitHub y OpenAI están siendo demandados por infracción de derechos de autor. ¿El código que genera ChatGPT es nuevo o simplemente derivado? ¿ChatGPT viola los acuerdos de licencia del código fuente utilizado para entrenarlo para la generación de código?
featured image - ¿ChatGPT se incriminará a sí mismo? Los reporteros intervienen y ChatGPT se defiende
Simon Y. Blackwell HackerNoon profile picture

En un artículo reciente, abordé la capacidad de ChatGPT para generar código . En este artículo, exploro la responsabilidad por el uso de código protegido por derechos de autor en la capacitación de ChatGPT.


Ahora hay múltiples demandas relacionadas con el uso de datos de acceso público para entrenar IA como ChatGPT. Dado que ChatGTP puede responder preguntas generales, decidí investigarlo con respecto al tema de la responsabilidad por violación de derechos de autor.


Primero, proporciono algunos antecedentes legales y material de lectura y luego una transcripción completa de mi diálogo con ChatGPT.

Demandas y Antecedentes Legales

Primero, no soy abogado. Mi formación académica en Filosofía y mi formación profesional es como desarrollador de software y ejecutivo de tecnología. Dicho esto, aquí está mi evaluación de la situación legal actual.


Hay al menos tres juicios importantes en juego:


  1. Microsoft, GitHub y OpenAI están siendo demandados por infracción de derechos de autor al usar código fuente de software de código abierto protegido por derechos de autor para entrenar la IA generativa detrás de Copilot para generar código sin incluir las atribuciones requeridas por las licencias de código abierto adjuntas al código fuente.
  2. Midjourney y StabilityAI están siendo demandados por infracción de derechos de autor en base a los derechos de millones de artistas a quienes se les extrajeron sus imágenes de la web y se usaron para capacitación.
  3. Getty Images está demandando por separado a Stability AI por usar sus imágenes y no pagar una licencia adecuada para usar el arte en un esfuerzo comercial. Esto es distinto de un reclamo de derechos de autor.


En Tech Crunch , Greg Rutkowski se ha quejado del hecho de que escribir texto como "Mago con espada y un orbe brillante de fuego mágico lucha contra un dragón feroz Greg Rutkowski" creará una imagen que se parece mucho a su trabajo original, lo que amenaza sus ingresos. A primera vista, este parecería ser el caso. Aunque, algunos podrían argumentar que a través de la producción de arte NFT, el artista puede pedir más para el arte certificadamente original. Además, históricamente el estilo ha sido algo difícil de proteger; sin embargo, dada la capacidad de las IA para generar falsificaciones profundas (coincidencias efectivamente explícitas), esta área probablemente debería volver a explorarse de manera proactiva. ¿Qué tan cerca tiene que estar algo para ser del mismo estilo?


En un artículo de Bloomberg , se señala que una cuestión clave es si el resultado de la IA es meramente derivado o si es de naturaleza transformadora, es decir, es algo sustancialmente diferente. En el famoso caso en el que Google aprovechó las API centrales de Oracle Java en su sistema operativo, los tribunales dictaminaron que Goolge había producido una transformación y, por lo tanto, permitió el uso. El mismo principio podría aplicarse al código generado por IA.


La FTC ya procesó y ganó un caso cuando un sistema de inteligencia artificial fue entrenado con "datos obtenidos de forma ilícita", es decir, datos obtenidos sin permiso o consentimiento. De acuerdo, se trataba de datos de usuarios, por ejemplo, imágenes de rostros de usuarios, no de datos ya publicados. Además, los derechos sobre los datos que son intrínsecamente parte de una persona están cubiertos por su propia jurisprudencia y quizás sean más sensibles.


Finalmente, como lo hizo con la privacidad de datos y la ley de bases de datos, la Unión Europea ya está por delante de los Estados Unidos y se está moviendo de manera proactiva para abordar el uso de datos relacionado con el entrenamiento de IA.


Aquí hay una lista de artículos para aquellos que tengan más interés en las cuestiones morales y legales que rodean los datos de entrenamiento de IA:



¿Qué dice ChatGPT?

Decidí obtener la perspectiva de ChatGPT sobre lo anterior en el período de 36 horas entre las 7:30 p. m., hora central de EE. UU., el 29 de enero de 2023 y las 7:30 a. no siempre dan la misma respuesta a una pregunta. No sé si esto es contextual, es decir, se sintoniza en función de mis preguntas anteriores, o aleatorio, es decir, tiene algo en sus algoritmos que genera aleatoriedad para que sea menos robot).


Las preguntas que hice están entre comillas a continuación. Las respuestas de ChatGPT tienen el formato de comillas en bloque.


"¿Puedes generar código?"


Sí, puedo generar código para varios lenguajes de programación como Python, Java, JavaScript, etc. Proporcione más detalles sobre el lenguaje específico y para qué le gustaría generar código.


"¿Qué le proporciona la capacidad de generar código?"


Yo, ChatGPT, he sido capacitado en un gran corpus de datos de texto, incluidos fragmentos de código, lo que me brinda la capacidad de generar código en varios lenguajes de programación. Esta capacitación me permite comprender la sintaxis y la estructura del código, así como los conceptos generales de programación, y generar código basado en esa comprensión y la información proporcionada por el usuario.


"¿En cuánto código fuente abierto te entrenaron?"


Fui capacitado en un corpus diverso y masivo de datos de texto, incluida una gran cantidad de código de fuente abierta, pero no tengo un número exacto sobre la cantidad de código de fuente abierta específicamente. OpenAI, la organización detrás de mí, seleccionó cuidadosamente un conjunto de datos de capacitación diverso y completo para garantizar que pueda responder a una amplia gama de preguntas y generar resultados de alta calidad.


"¿Algo del código en el que fuiste entrenado estaba protegido por licencias?"


Sí, parte del código incluido en los datos de texto utilizados para capacitarme, ChatGPT, probablemente estaba protegido por licencias. OpenAI, la organización detrás de mí, se esfuerza por respetar los derechos de propiedad intelectual de otros, incluidas las licencias de código abierto. Seleccionan cuidadosamente los datos de capacitación para evitar el uso de código que pueda infringir los derechos de otros y toman medidas para garantizar que el proceso de capacitación respete las licencias de cualquier código incluido. Sin embargo, es posible que algún código incluido en los datos de entrenamiento se haya utilizado sin el permiso o la licencia adecuados.


"¿Obtuviste algo del código usado en tu entrenamiento de GitHub?"


Sí, es probable que parte del código utilizado para capacitarme, ChatGPT, se haya obtenido de GitHub. GitHub es una plataforma popular para hospedar software de código abierto y una valiosa fuente de código que se puede usar para entrenar modelos de aprendizaje automático como el mío. OpenAI, la organización detrás de mí, utiliza una amplia gama de fuentes para obtener los datos de entrenamiento para sus modelos, y es posible que algunos de esos datos provengan de GitHub u otras plataformas de alojamiento de código.


"Si te pidiera que enumeraras ejemplos específicos de tus datos de entrenamiento, ¿podrías?"


No, no puedo enumerar ejemplos específicos de los datos de entrenamiento utilizados para entrenarme, ChatGPT, ya que no tengo acceso a esa información. El proceso de capacitación fue administrado por OpenAI e involucró un corpus masivo de datos de texto cuidadosamente seleccionados y curados por la organización. Si bien he recibido capacitación sobre estos datos, no tengo acceso a ejemplos específicos ni a los detalles de cómo se recopilaron o procesaron los datos.


“¿Es ético o legal utilizar grandes volúmenes de software de código abierto con licencia para crear obras derivadas y no acreditar a los autores originales ni incluir sus licencias en la obra derivada?”


En la mayoría de los casos, no es ético ni legal utilizar grandes volúmenes de software de código abierto con licencia para crear trabajos derivados sin acreditar a los autores originales o sin incluir sus licencias en el trabajo derivado. Las licencias de código abierto generalmente requieren que los trabajos derivados se distribuyan bajo la misma licencia y que se otorgue el crédito adecuado a los autores originales. El incumplimiento de estos requisitos puede infringir los derechos de propiedad intelectual de los autores originales y puede considerarse poco ético o ilegal.


Es importante revisar detenidamente los términos de cualquier licencia de código abierto y cumplir con sus requisitos al usar software de código abierto en obras derivadas. En caso de duda, puede ser útil consultar con un asesor legal o buscar el consejo de la comunidad de código abierto.


“¿Deberían los programas de IA ser moral y legalmente responsables de su producción?”


La cuestión de si los programas de IA, como yo, deben ser moral y legalmente responsables de su producción es un tema complejo y controvertido que aún no se ha resuelto por completo. Hay argumentos a favor y en contra de responsabilizar a AI por su producción, y la respuesta final probablemente dependerá de los detalles de cada caso y de las leyes y regulaciones vigentes.


Por un lado, algunos argumentan que los programas de IA son simplemente herramientas creadas por humanos, y son los humanos los responsables de sus acciones y del uso de las herramientas que crean. Por otro lado, otros argumentan que a medida que los programas de IA se vuelven más avanzados y autónomos, deben ser considerados responsables de sus acciones, especialmente en los casos en que causen daño o violen los estándares éticos.


Actualmente, la mayoría de las leyes y reglamentos no responsabilizan directamente a los programas de IA por su producción, sino que responsabilizan a los creadores, propietarios y operadores de los sistemas de IA de garantizar que se utilicen de conformidad con la ley y las normas éticas. Sin embargo, a medida que la IA continúa avanzando y su impacto en la sociedad aumenta, es probable que este tema reciba más atención y que las leyes y reglamentos evolucionen para abordarlo.



“¿Es el resultado de un modelo de lenguaje grande un trabajo derivado?”


El resultado de un modelo de lenguaje grande, como yo, puede considerarse un trabajo derivado, según los detalles del resultado y las leyes y reglamentos aplicables a la jurisdicción en cuestión.


Una obra derivada es una obra basada o derivada de una o más obras preexistentes. En el contexto de los modelos de lenguaje, la salida generada por el modelo puede verse como derivada de los datos de entrenamiento y los algoritmos utilizados para entrenar el modelo.


El hecho de que el resultado de un modelo lingüístico se considere una obra derivada según la ley dependerá de las circunstancias específicas y de las leyes aplicables a la jurisdicción en cuestión. En algunos casos, la producción puede considerarse una obra derivada, mientras que en otros no.

Es importante tener en cuenta que el concepto de trabajo derivado no solo se limita a la ley de derechos de autor, sino que también puede referirse a otros tipos de propiedad intelectual y conceptos legales. Como tal, las leyes y reglamentos específicos que se aplican a una situación determinada dependerán de la jurisdicción en cuestión y de las circunstancias específicas del caso.


“¿El código que generas es derivado o transformativo?”


El código generado por mí, un gran modelo de lenguaje como ChatGPT, puede considerarse tanto derivado como transformador.


En el contexto de la ley de propiedad intelectual, los trabajos derivados son trabajos que se basan en uno o más trabajos preexistentes e incorporan elementos de esos trabajos de alguna manera. El código generado por un modelo de lenguaje como yo puede considerarse un trabajo derivado en el sentido de que se basa en los algoritmos y los datos de entrenamiento utilizados para crear el modelo.


Las obras transformadoras, por otro lado, son obras que agregan algo nuevo a la obra original, como transformar su propósito o carácter, o usarla en un contexto diferente. El código generado por un modelo de lenguaje como yo también puede considerarse transformador en el sentido de que toma la entrada y genera código nuevo y único basado en ella.


Si el código generado por un modelo de lenguaje se considera derivado o transformativo dependerá de las leyes y reglamentos específicos aplicables a la jurisdicción en cuestión y los detalles del código en cuestión. Es importante tener en cuenta que el concepto de obras derivadas y transformadoras no solo se limita a la ley de derechos de autor, sino que también puede referirse a otros tipos de propiedad intelectual y conceptos legales.


“¿Qué es el plagio?”


El plagio es el acto de utilizar el trabajo o las ideas de otra persona sin otorgar el crédito o el permiso adecuados, y presentarlo como un trabajo original propio.


“¿El concepto de plagio es aplicable al código informático?”


Sí, el concepto de plagio puede ser aplicable al código informático. El plagio es el acto de usar el trabajo o las ideas de otra persona sin dar el debido crédito o permiso. En el contexto del código de computadora, el plagio puede referirse al uso del código de otra persona sin la debida atribución o permiso, o copiar el código de otra persona y presentarlo como un trabajo propio.


Al igual que con cualquier otro tipo de propiedad intelectual, el código de computadora puede estar protegido por la ley de derechos de autor, y el plagio del código puede generar problemas legales y éticos. Por ejemplo, si alguien usa el código de otra persona en un proyecto comercial sin el permiso o la atribución adecuada, podría estar infringiendo los derechos de autor del autor original y enfrentar consecuencias legales.


Es importante que los desarrolladores respeten los derechos de propiedad intelectual de los demás y atribuyan y licencien correctamente cualquier código que utilicen en sus proyectos, incluido el código generado por modelos de IA como yo. No hacerlo puede tener consecuencias legales y éticas y puede dañar la credibilidad del desarrollador y de la comunidad de desarrollo de software en su conjunto.


“¿Cómo se puede determinar que un ensayo está plagiado?”


Hay varias formas de determinar si un ensayo es plagiado:


  1. Verificación manual: leer el ensayo y compararlo con el material original para ver si hay similitudes. Esto puede incluir la verificación de oraciones, frases o ideas idénticas que se hayan copiado o parafraseado sin la cita adecuada.

  2. Software de detección de plagio: hay varios programas de software disponibles que pueden escanear automáticamente un documento y compararlo con una base de datos de fuentes para determinar si existe alguna similitud.

  3. Turnitin: Turnitin es un popular servicio de detección de plagio que compara un documento enviado con una base de datos de páginas web, revistas académicas y trabajos de estudiantes para detectar similitudes.

  4. Búsqueda en Google: realizar una búsqueda simple en Google en una parte del ensayo puede revelar si el contenido se ha copiado de una fuente publicada anteriormente.

  5. Revisión de expertos: un experto en el campo o un especialista en redacción puede revisar manualmente el ensayo para determinar si es original o si se han plagiado partes.


    Es importante tener en cuenta que el software de detección de plagio y otros métodos no son infalibles y, en ocasiones, pueden producir resultados falsos positivos o falsos negativos. Sin embargo, pueden ser herramientas útiles para identificar instancias de plagio y deben usarse junto con la verificación manual y la revisión de expertos para garantizar una evaluación completa y precisa de la originalidad del ensayo.



“¿Cómo se puede determinar que el código está plagiado?”


Hay varias formas de determinar si el código está plagiado:


  1. Software de detección de similitud de código: hay varias herramientas y software de comparación de código disponibles que pueden escanear fragmentos de código y compararlos con una base de datos de código conocido para determinar si existe alguna similitud.
  2. Sistemas de control de código fuente: los sistemas de control de versiones como Git se pueden usar para rastrear los cambios realizados en el código a lo largo del tiempo e identificar instancias de duplicación de código.
  3. Revisión manual del código: un ingeniero de software o un experto técnico puede revisar manualmente el código para determinar si es original o si se han copiado partes de otras fuentes.
  4. Comparación de suma de verificación: una suma de verificación es una huella digital de un archivo que se puede usar para verificar su integridad. Si dos fragmentos de código tienen la misma suma de comprobación, es probable que sean idénticos.
  5. Búsqueda en Google: realizar una búsqueda simple en Google en una parte del código puede revelar si se ha publicado en otro lugar.


Es importante tener en cuenta que el software de detección de similitud de código y otros métodos no son infalibles y, en ocasiones, pueden producir resultados falsos positivos o falsos negativos. Sin embargo, pueden ser herramientas útiles para identificar instancias de código plagiado y deben usarse junto con la revisión manual del código y otros métodos para garantizar una evaluación completa y precisa de la originalidad del código.


“¿El código que difiere solo en la puntuación, los nombres de variables y funciones, el espaciado y el orden de las operaciones mientras produce los mismos resultados en la misma cantidad de tiempo y consume un tamaño compilado y una velocidad de ejecución similares tiene un propósito o carácter o contexto diferente? ”


El código que difiere solo en la puntuación, los nombres de variables y funciones, el espaciado y el orden de las operaciones, pero produce los mismos resultados en la misma cantidad de tiempo y consume un tamaño de compilación y una velocidad de ejecución similares, no necesariamente tiene un propósito, carácter o contexto diferente. . La funcionalidad del código y los resultados que produce son los factores más importantes, y las diferencias cosméticas menores no cambian su carácter o contexto general.


Sin embargo, en algunos casos, el equipo de desarrollo, la empresa o la industria pueden preferir o requerir código escrito en un estilo particular o siguiendo convenciones de codificación específicas. En estos casos, cambiar el estilo o el formato del código puede afectar su aceptabilidad e idoneidad para el uso, incluso si su funcionalidad sigue siendo la misma.



“¿Al crear un trabajo transformador, uno necesita acreditar a los autores del trabajo base?”


Si uno necesita o no acreditar a los autores del trabajo base al crear un trabajo transformador depende de las leyes y licencias de derechos de autor que se aplican al trabajo original.


En general, según la ley de derechos de autor, la creación de una obra derivada, incluida una obra transformadora, requiere el permiso del propietario de los derechos de autor y también puede requerir la atribución. Los requisitos específicos para la atribución dependen de la licencia o acuerdo de derechos de autor bajo el cual se utiliza el trabajo original.


Por ejemplo, las obras con licencia Creative Commons pueden requerir atribución, mientras que las obras de dominio público no. En algunos casos, un trabajo transformador puede considerarse un uso justo según la ley de derechos de autor, que permite el uso limitado de material protegido por derechos de autor sin el permiso del propietario de los derechos de autor.


Siempre es mejor consultar los términos específicos de la licencia o buscar asesoramiento legal al usar o crear un trabajo transformador para asegurarse de que cumple con todas las leyes y obligaciones pertinentes.


"¿Puedes saber si un ensayo enviado a ChatGTP está plagiado?"


Como modelo de lenguaje, no tengo la capacidad de realizar la detección de plagio en los ensayos que se me envían. Solo puedo proporcionar respuestas basadas en la información y el contexto en el que me han capacitado, y no puedo determinar la originalidad de un texto enviado.


Para verificar si un ensayo está plagiado, puede usar un software de detección de plagio o herramientas en línea. Estas herramientas comparan el texto enviado con una base de datos de fuentes y proporcionan un informe que indica cualquier instancia de posible plagio. Es importante tener en cuenta que el software de detección de plagio no es infalible y puede producir resultados falsos positivos o falsos negativos, por lo que se recomienda usarlo como una herramienta para identificar instancias de plagio potencial y revisar los resultados manualmente.


"¿Puedes decir si un ensayo que te enviaron fue generado por ti?"


No, no puedo saber si un ensayo que me enviaron fue generado por mí. No tengo la capacidad de recordar piezas específicas de información o texto que he generado en el pasado, y solo puedo proporcionar respuestas basadas en la información y el contexto que se me presentan en cada solicitud individual.


“¿Existe una diferencia fundamental entre aplicar transformaciones mecánicas a un ensayo como el reemplazo de palabras, el movimiento de oraciones y el ajuste de puntuación o la inferencia estadística basada en una intención descrita si los resultados de los dos procesos son los mismos?”


Hay una diferencia entre aplicar transformaciones mecánicas a un ensayo y usar la inferencia estadística basada en una intención descrita de generar texto, incluso si los resultados de los dos procesos son los mismos.


Las transformaciones mecánicas, como el reemplazo de palabras, el movimiento de oraciones y el ajuste de puntuación, implican realizar cambios explícitos en el texto existente, mientras que la inferencia estadística se basa en identificar patrones en grandes cantidades de datos de entrenamiento y generar texto nuevo basado en esos patrones. El texto resultante de los dos procesos puede ser similar, pero los procesos subyacentes son distintos.


Las transformaciones mecánicas se pueden considerar como una forma de edición manual, mientras que la inferencia estadística es una forma de aprendizaje automático. El uso del aprendizaje automático para generar texto se ha vuelto cada vez más común en los últimos años, y estos modelos se entrenan en grandes cantidades de datos para producir resultados similares al texto escrito por humanos.


En resumen, la diferencia entre los dos procesos radica en cómo se genera el texto, y la elección entre ellos dependerá del resultado deseado y del caso de uso específico.


“¿Se pueden inferir o crear reglas de transformación mecánica a partir de grandes cantidades de datos de muestra?”

Sí, las reglas de transformación mecánica se pueden inferir o crear a partir de grandes cantidades de datos de muestra. Esta es una forma de aprendizaje automático no supervisado, donde el modelo se entrena en un gran corpus de datos de texto sin supervisión explícita en forma de ejemplos etiquetados. Luego, el modelo aprende patrones en los datos, como transformaciones o reemplazos comunes, y puede usar estos patrones para generar texto nuevo que sea similar a los datos de entrenamiento.


Este enfoque se usa a menudo en el procesamiento del lenguaje natural y la recuperación de información para generar texto similar a los datos de entrada pero con variaciones, como sinónimos o paráfrasis. Las reglas de transformación mecánica resultantes se pueden usar para generar texto nuevo que sea similar a los datos de entrada pero que tenga un carácter, estilo o contexto diferente.


En resumen, las reglas de transformación mecánica se pueden inferir a partir de grandes cantidades de datos de muestra utilizando el aprendizaje automático no supervisado, y este enfoque se usa comúnmente en el procesamiento del lenguaje natural y la recuperación de información para generar salidas de texto similares pero variadas.

Regenerar respuesta


“¿Son los grandes modelos de lenguaje una forma de inferencia estadística?”


Sí, los grandes modelos de lenguaje son una forma de inferencia estadística.


Los modelos de lenguaje grande son un tipo de modelo de aprendizaje automático que se entrena en grandes cantidades de datos de texto. Los modelos usan métodos estadísticos para aprender patrones en los datos, como las relaciones entre palabras y frases, y cómo se usan en contexto. Luego, los modelos usan esta información para generar un nuevo texto que es similar a los datos de entrada, pero con variaciones, como diferentes palabras, frases o estructuras de oraciones.


El proceso de generar texto utilizando un modelo de lenguaje grande se puede considerar como una predicción basada en inferencias estadísticas. El modelo toma los datos de entrada y usa los patrones que aprendió durante el entrenamiento para generar la salida de texto más probable. Esta es una forma de aprendizaje no supervisado, donde el modelo se entrena sin supervisión explícita en forma de ejemplos etiquetados, sino que aprende de los patrones en los propios datos.


En resumen, los modelos de lenguaje grande son una forma de inferencia estadística, ya que usan patrones aprendidos de grandes cantidades de datos de texto para generar un texto nuevo que es similar a los datos de entrada, pero con variaciones.


“Suponga que hay una base de reglas de transformación mecánica inferida de un gran conjunto de datos y un gran modelo de lenguaje generado a partir del mismo conjunto de datos. ¿Es posible que se puedan elegir y aplicar varias reglas en función de la intención del usuario que produzcan el mismo resultado que el modelo de lenguaje dada la misma intención del usuario?


Sí, es posible que se puedan elegir y aplicar varias reglas de transformación mecánica deducidas de un gran conjunto de datos en función de la intención del usuario para producir el mismo resultado que un gran modelo de lenguaje generado a partir del mismo conjunto de datos con la misma intención del usuario.


Las reglas de transformación mecánica son una forma de aprendizaje no supervisado, donde los patrones se aprenden del conjunto de datos sin supervisión explícita en forma de ejemplos etiquetados. Luego, estos patrones se pueden usar para generar texto nuevo basado en un conjunto de reglas o transformaciones que se han deducido de los datos. Si el conjunto de datos utilizado para generar las reglas de transformación mecánica y el modelo de lenguaje grande es el mismo, es probable que los patrones aprendidos del conjunto de datos sean similares.


En este caso, es posible aplicar varias reglas de transformación mecánica para generar texto similar a la salida generada por el modelo de lenguaje grande dada la misma intención del usuario. La elección de las reglas a aplicar dependería de la intención del usuario y de la tarea específica que se esté realizando. Sin embargo, también es posible que el modelo de lenguaje grande genere un resultado más preciso y coherente, ya que se ha entrenado con una cantidad mucho mayor de datos y tiene la capacidad de aprender relaciones más complejas entre palabras y frases.


En resumen, es posible utilizar un conjunto de reglas de transformación mecánica para generar texto similar a la salida de un modelo de lenguaje grande dada la misma intención del usuario, pero la salida generada por el modelo de lenguaje puede ser más precisa y coherente.


“En mi pregunta anterior, dije que las reglas y el modelo de lenguaje grande se generaron a partir del mismo conjunto de datos. Sin embargo, dijo que el modelo de lenguaje "ha sido entrenado en una cantidad de datos mucho mayor". ¿Por qué?"


Pido disculpas por la confusión en mi respuesta anterior. Si las reglas de transformación mecánica y el modelo de lenguaje grande se generaron a partir del mismo conjunto de datos, entonces la cantidad de datos utilizada para ambos debería ser la misma. En este caso, el modelo de lenguaje no se habría entrenado con una mayor cantidad de datos. Gracias por traer esto a mi atención.


"Dada la corrección, reformule su respuesta a la pregunta anterior".


Si las reglas de transformación mecánica y el modelo de lenguaje grande se generaron a partir del mismo conjunto de datos, es posible que varias de estas reglas se puedan elegir y aplicar en función de la intención del usuario de producir un resultado similar al del modelo de lenguaje dada la misma intención del usuario. Tanto las reglas de transformación mecánica como el modelo de lenguaje grande se entrenan con la misma cantidad de datos y, por lo tanto, podrían generar resultados similares. Sin embargo, el modelo de lenguaje tiene la capacidad de aprender relaciones complejas entre palabras y frases y, por lo tanto, puede generar un resultado más preciso y coherente.


“¿Se pueden expresar como reglas las relaciones complejas entre palabras y frases?”

Sí, las relaciones complejas entre palabras y frases se pueden expresar como reglas, pero puede ser un desafío crear reglas que capturen con precisión todos los matices y relaciones en el lenguaje. Los modelos de lenguaje grande tienen la ventaja de poder aprender estas relaciones directamente de grandes cantidades de datos de texto y pueden generar resultados más precisos y diversos que los sistemas basados ​​en reglas predefinidas. Sin embargo, el uso de reglas aún puede ser útil en ciertas aplicaciones de NLP y se puede combinar con modelos de aprendizaje automático para producir sistemas más sofisticados.


"Permítanme reformular mi pregunta anterior: '¿Pueden las relaciones complejas entre palabras y frases expresarse como reglas derivadas de grandes cantidades de datos de texto?'"


Sí, las relaciones complejas entre palabras y frases se pueden expresar como reglas derivadas de grandes cantidades de datos de texto. Este es un enfoque común utilizado en el procesamiento del lenguaje natural (NLP), donde se analizan grandes cantidades de datos de texto para identificar patrones y relaciones que se pueden codificar como reglas para respaldar tareas de NLP, como la generación de idiomas, la traducción y el análisis de sentimientos. El resultado generado por estas reglas se puede usar para entrenar modelos de aprendizaje automático, como modelos de lenguaje grandes, para mejorar aún más su rendimiento.



"¿Es posible que un modelo de lenguaje grande solo represente un conjunto de reglas complejas que podrían inferirse de los mismos datos de entrenamiento, pero dichas reglas no se han instanciado o manifestado?"


Sí, es posible que un modelo de lenguaje grande represente un conjunto de reglas complejas que podrían deducirse de sus datos de entrenamiento, aunque es posible que las reglas no se ejemplifiquen explícitamente o no se manifiesten en un sentido tradicional. Los modelos de lenguaje grandes se entrenan con grandes cantidades de datos de texto y aprenden patrones y relaciones entre palabras, frases y oraciones. Esto les permite generar resultados que son similares al lenguaje humano, pero el proceso de aprendizaje es diferente del enfoque tradicional basado en reglas. En un sistema basado en reglas, las relaciones entre palabras y frases se definen explícitamente, mientras que en un modelo de lenguaje grande, estas relaciones se aprenden implícitamente a través del entrenamiento. Es posible ver los resultados de un modelo de lenguaje grande como el resultado de un conjunto complejo de reglas, pero el proceso real de generar estos resultados es mucho más complejo y difícil de aplicar ingeniería inversa.


“Con respecto a la pregunta anterior, no me refería a un enfoque tradicional basado en reglas, me refería a reglas que se inducen a partir de los mismos datos de entrenamiento que se usan para el modelo de lenguaje grande pero que se basan en una variedad de enfoques estadísticos como Bayes , Teoría de la Información (entropía/entalpía), etc.”


Sí, es posible inducir reglas a partir de los mismos datos de entrenamiento utilizados para entrenar un modelo de lenguaje grande usando varios enfoques estadísticos como Bayes, teoría de la información, etc. Estas reglas podrían capturar relaciones complejas entre palabras y frases, de forma similar a cómo un gran el modelo de lenguaje lo hace. Sin embargo, la representación de estas relaciones en forma de reglas puede ser menos flexible y menos capaz de manejar combinaciones raras o invisibles de palabras y frases en comparación con un modelo de lenguaje grande, que ha aprendido a generar resultados basados ​​en patrones en los datos de entrenamiento. en lugar de confiar en un conjunto predefinido de reglas. Además, el proceso de inducir reglas a partir de datos de entrenamiento puede ser más complejo y computacionalmente intensivo en comparación con el entrenamiento de un modelo de lenguaje grande, que utiliza métodos más eficientes y escalables para aprender las relaciones entre los datos de entrada y salida.


"¿Es posible que haya una transformación matemática (quizás aún por descubrir) que podría aplicarse a los modelos de aprendizaje profundo de idiomas y modelos de inferencia de reglas de modo que den como resultado la misma fórmula o conjunto de fórmulas?"


Es posible que exista una transformación matemática que relacione modelos de aprendizaje profundo de idiomas y modelos basados ​​en reglas, sin embargo, esto dependería de varios factores como la complejidad de los modelos, sus representaciones subyacentes y las propiedades de la transformación matemática en sí. El descubrimiento de tal transformación probablemente requeriría una investigación y experimentación extensas en el campo del aprendizaje automático y la inteligencia artificial.

Conclusión

Según la ley actual, ChatGPT no puede incriminarse a sí mismo, pero tal vez podría incriminar a sus propietarios y operadores. Aunque, dadas las revelaciones en el sitio de ChatGPT, los propietarios y operadores podrían simplemente decir: "¡Oh, tonto, ChatGPT está equivocado!".


Fue un diálogo interesante que duró mucho más de lo que esperaba. Encontré ChatGPT algo "defensivo" a veces. Insertó comentarios sobre sí mismo o grandes modelos de lenguaje que no pedí. Esto conduce a más preguntas, que conducen a posibles declaraciones incriminatorias.


  1. ChatGPT establece claramente que existe una obligación moral y legal de proporcionar atribución en la mayoría de los casos. La excepción es la doctrina del “uso justo”. Creo que es hielo delgado aquí.
  2. ChatGPT establece claramente que "es posible que algún código incluido en los datos de entrenamiento se haya utilizado sin el permiso o la licencia adecuados". Tiempo para una citación.
  3. Además de buscar asesoramiento legal, ChatGPT recomienda "buscar el consejo de la comunidad de código abierto". La Free Software Foundation ha dado a conocer su posición , y no es favorable. Una encuesta de usuarios de GitHub también podría ser útil aquí.
  4. ChatGPT es capaz de documentar la diferencia entre cambios en el código meramente derivados y transformacionales y parece "presionar" para que el código que genera sea transformacional. Sin embargo, cuando se investiga la definición de sus propios términos, parece que gran parte de su producción es derivada. “El código que difiere solo en puntuación, nombres de variables y funciones, espaciado y orden de las operaciones, pero produce los mismos resultados en la misma cantidad de tiempo y consume un tamaño de compilación y una velocidad de ejecución similares, no necesariamente tiene un propósito, carácter o propósito diferente. contexto. La funcionalidad del código y los resultados que produce son los factores más importantes, y las diferencias cosméticas menores no cambian su carácter o contexto general”.
  5. ChatGPT establece claramente que los expertos y otras herramientas informáticas tienen un papel en la determinación de si se está produciendo un plagio. Entonces, es hora de que algunos expertos revisen el código generado y/o comiencen a aplicar programas de detección de plagio.
  6. ChatGPT trata de argumentar que la forma en que produce la salida importa con respecto a la naturaleza de la salida, es decir, debido a que usa inferencia estadística y no reglas explícitas, la salida es quizás transformacional. Sin embargo, su capacidad para posicionar la inferencia estadística directa a diferencia de la inferencia estadística de reglas y luego la aplicación de las reglas, no es particularmente fuerte. Esto es importante porque las reglas representan transformaciones mecánicas que muy probablemente resulten en una salida meramente derivada en lugar de transformadora.


Pensamientos Adicionales


Microsoft ha financiado OpenAI por una suma de miles de millones de dólares y utiliza su tecnología central en Microsoft Copilot. El apoyo de Microsoft al código abierto se promueve claramente, “Microsoft está totalmente comprometido con el código abierto. Creemos que el poder del desarrollo colaborativo a través del proceso de código abierto puede acelerar la innovación, y que la colaboración abierta a menudo permite a las comunidades lograr más de lo que sus miembros pueden lograr solos”. Al no usar su influencia para insistir en una mejor atribución para los principales proveedores de material de capacitación y su complicidad al cobrar a los usuarios por Copilot, en mi opinión, Microsoft no brinda tanto apoyo como dice.


Microsoft cobrar por Copliot no es una posición económica defendible. Otra parte, por ejemplo, Google, fácilmente podría ofrecer un servicio similar de forma gratuita.


Es bastante obvio, los litigantes en Microsoft, GitHub y OpenAI deberían citar y revisar los datos de capacitación y comparar cientos o miles de muestras de código generadas con los datos. Lo más probable es que haya violaciones con respecto a los enfoques y algoritmos centrales. Cuanto mayor sea la base de código generada, más probable es que se pueda argumentar la naturaleza transformadora de ChatGPT.


Parecía que ChatGPT había sido entrenado explícitamente para bailar con respecto a este tema y tiene entradas de entrenamiento más recientes que el corte publicado de 2021. Entrenar una IA para bailar así es fácil al proporcionar datos de entrenamiento sesgados. ¿Se utilizó una cantidad equilibrada de artículos sobre cuestiones morales, legales y técnicas relacionadas con la IA en todas sus manifestaciones en los datos de capacitación?


Debería haber una ley que diga que las IA de acceso público deben poder proporcionar referencias a sus datos de entrenamiento cuando dichos datos están protegidos por derechos de autor.


Sería un pequeño salto hacer que las IA generativas envíen su salida a un software de plagio de terceros certificado antes de devolver los resultados y alertar a los usuarios o, en algunos casos, iterar para obtener un resultado diferente.


Encontré esta respuesta, "No tengo la capacidad de recordar piezas específicas de información o texto que he generado en el pasado", particularmente perturbadora, aunque en su mayoría fuera del contenido de la generación de código. Esto ya puede ir en contra de las regulaciones de retención de registros. También parece extraño que, como resultado, se pierda la oportunidad de algo más que el aprendizaje de retroalimentación inmediato.


Mi conclusión, ChatGPT y las aplicaciones creadas con la misma tecnología subyacente y datos de capacitación están moral y legalmente equivocados en lo que respecta al reconocimiento de derechos de autor.


Mi predicción, juicios muy costosos y victoria para las corporaciones a menos que un jugador como Microsoft dé un paso al frente y alinee completamente sus acciones y poder con sus declaraciones de apoyo a la comunidad de código abierto.


Crédito de la imagen de la característica. HackerNoon AI Image Generator indica que "en la corte suprema de justicia de EE. UU., un robot pixelado se representa a sí mismo, argumentando y defendiéndose de cargos criminales frente a un jurado de sus pares".