Pausar las Inteligencias Artificiales ¿Tiene sentido?
La Inteligencia Artificial, que ha recorrido un largo camino en los últimos años, ha dado mucho de qué hablar, especialmente desde que OpenAI lanzara su ChatGPT a finales del año pasado.
La conversación se amplió y generó mayor admiración (y preocupación) a partir de la adopción por parte de Microsoft de esta tecnología en su Bing Chat, lo que a su vez generó una enorme presión para que Google lanzara su propia herramienta de IA: Bard,
La cosa, desde luego, no paró ahí: Se comenzó a hablar de las implicaciones éticas del uso dichas herramientas, sin dejar de lado el tema de la retribución, los derechos de autor, el plagio, el copyright y, desde luego, el peligro que supone para muchos profesionistas, como es el caso de los redactores de contenido.
Esta preocupación se cristalizó en una carta abierta firmada por más de mil personas, entre las que se encuentran destacadas personalidades de la industria de la tecnología, como Elon Musk o Steve Wozniak.
- ¿Qué es ChatGPT y otras herramientas similares?
- Los posibles riesgos que implican los Grandes Modelos de Lenguaje
- Beneficios de los Grandes Modelos de Lenguaje
- La carta abierta
- ¿Por qué creo que no tiene sentido detener (incluso por solo seis meses) el desarrollo de la Inteligencia Artificial?
- Desarrollo responsable de IA
- ¿Qué opina Sam Altman, CEO de OpenAI?
- Preguntas frecuentes sobre si pausar las Inteligencias Artificiales tiene sentido
¿Qué es ChatGPT y otras herramientas similares?
ChatGPT no es más que la herramienta de inteligencia artificial mejor conocida. Se hizo popular a finales de 2022, cuando OpenAI, la compañía que la desarrolla, lanzó una beta abierta que todo el mundo pudo probar, provocando una admiración generalizada.
En términos más técnicos, ChatGPT, así como otras herramientas del mismo estilo, son “Grandes Modelos de Lenguaje” (LLM por sus siglas en inglés, que significan, Large Language Models). Tienen como objeto procesar y generar respuestas parecidas a las de un humano, en respuesta a solicitudes que se les hacen.
Para su correcto funcionamiento, estos modelos de lenguaje deben de ser entrenados con miles de millones de conjuntos de datos referentes al lenguaje humano, lo que les permite generar respuestas sumamente parecidas a las de un homo sapiens.
ChatGPT es la más conocida de estas herramientas de Inteligencia Artificial, sin embargo, existen muchas otras, aunque posiblemente no tan avanzadas.
Otras herramientas similares a ChatGPT incluyen modelos de lenguaje como BERT, Bard y Transformer-XL. Estos modelos de lenguaje también se basan en arquitecturas de aprendizaje profundo, y están diseñados para procesar texto en lenguaje natural.
Además de los modelos de lenguaje, también existen otras herramientas y tecnologías de IA que se usan comúnmente, como modelos de visión por computadora, sistemas de reconocimiento de voz y motores para la generación de recomendaciones.
En general, el desarrollo y el uso de herramientas y tecnologías de IA son cada vez más frecuentes en muchas industrias y aplicaciones, y es probable que sigan desempeñando un papel importante en el futuro de la tecnología y la sociedad.
Los posibles riesgos que implican los Grandes Modelos de Lenguaje
Desde luego, las herramientas de Inteligencia Artificial implican una serie de riesgos. Algunos de ellos ya han sido abordados y discutidos, pero debido a lo novedoso de esta tecnología, todavía es imposible prever todas y cada una de sus implicaciones negativas, las que se irán descubriendo a la par del avance de los Grandes Modelos de Lenguaje.
A pesar de lo anterior, ya existen algunas directrices en las que se cree que estos modelos de lenguaje podrían tener un impacto negativo, si no se toman las medidas necesarias:
- Privacidad: Los datos son el elemento vital de cualquier modelo de IA. Es importante asegurarse de que los datos se recopilen y utilicen de una manera que respete la privacidad de las personas. No hacerlo así, podría suponer en poner en riesgo los derechos, la seguridad e, incluso, la vida de las personas que usan las herramientas de Inteligencia Artificial.
- Seguridad: Los nuevos modelos de IA tienen vulnerabilidades complejas y en evolución que crean riesgos nuevos y familiares. Es importante asegurarse de que estos sistemas sean seguros y estén protegidos contra ataques cibernéticos.
- Imparcialidad: Debido a la enorme cantidad de datos con los que deben ser entrenados los modelos de lenguaje, puede resultar fácil codificar inadvertidamente sesgos en dichos modelos de IA, o bien, introducirlos voluntariamente. Es importante asegurarse de que los sistemas de IA sean justos e imparciales.
- Transparencia: es importante asegurarse de que los sistemas de IA sean transparentes y explicables para que las personas puedan entender cómo funcionan y cómo toman decisiones.
- Seguridad y rendimiento: los sistemas impulsados por IA deben defenderse activamente de los ataques adversarios, minimizando los riesgos de seguridad y permitiendo la confianza en los resultados del sistema. Las herramientas de Inteligencia Artificial serán, seguramente, un nuevo campo de batalla en las modernas guerras cibernéticas.
- Riesgos de terceros: es importante asegurarse de que los proveedores externos de sistemas de IA sean dignos de confianza y fiables.
- Amenaza a fuentes de empleo: La automatización de tareas que permiten las herramientas de Inteligencia Artificial, puede resultar en un riesgo para muchas profesiones y tareas que actualmente realizan las personas.
Beneficios de los Grandes Modelos de Lenguaje
A pesar de los riesgos, también existen beneficios que son dignos de considerar para el desarrollo y mantenimiento de las herramientas de Inteligencia Artificial, tales como:
- Reducir el trabajo manual y los costos. Los modelos de lenguaje se pueden utilizar para automatizar muchos procesos, como el servicio al cliente.
- Mejora de la disponibilidad, la personalización y la satisfacción del cliente. Muchos clientes esperan que las empresas estén disponibles las 24 horas del día, los 7 días de la semana y brinden experiencias personalizadas. Los humanos son incapaces de tan agotadoras jornadas de trabajo, por lo que las herramientas IA bien podrían realizar esas tareas.
- Ahorro de tiempo. Los sistemas de modelo de lenguaje pueden procesar grandes cantidades de datos rápidamente, generando ahorros en el tiempo y los recursos destinados a estas tareas.
- Mejor comprensión del idioma. Los grandes modelos de lenguaje pueden proporcionar una mejor comprensión del lenguaje al capturar más información contextual presente en el texto, lo que puede ser de utilidad para investigadores, científicos, periodistas, estudiantes, etc.
La carta abierta
La carta abierta fue publicada por Future of Life Institute, una organización dedicada a garantizar que el desarrollo de la Inteligencia Artificial beneficie a la humanidad en su conjunto. La carta pide una pausa en los experimentos gigantes de IA, citando preocupaciones sobre los riesgos potenciales del desarrollo de IA sin control.
Los autores de la carta argumentan que el rápido desarrollo de la IA sin una supervisión y regulación adecuadas podría tener importantes consecuencias negativas para la sociedad.
Una de las principales preocupaciones planteadas en la carta es la posibilidad de que la IA se utilice de formas que podrían ser perjudiciales para la sociedad. Por ejemplo, la IA podría usarse para crear armas autónomas que podrían tomar decisiones sobre a quién apuntar y cuándo usar la fuerza. Esto podría conducir a situaciones en las que las máquinas tomen decisiones de vida o muerte sin supervisión o intervención humana.
Además, existen preocupaciones sobre el potencial de que la IA se utilice de formas que podrían exacerbar las desigualdades existentes en la sociedad, como automatizar trabajos (como el de los redactores de contenidos) y exacerbar la desigualdad económica.
¿Por qué creo que no tiene sentido detener (incluso por solo seis meses) el desarrollo de la Inteligencia Artificial?
Si bien las preocupaciones planteadas en la carta abierta son válidas, algunos pueden argumentar que detener por completo el entrenamiento de IA es innecesario (entre los que me cuento). Después de todo, la IA tiene el potencial de revolucionar muchos aspectos de nuestras vidas, desde la atención médica hasta el transporte y la educación.
Me parece que detener los grandes experimentos en IA, incluso por algunos meses, no serviría de mucho en el ámbito de la reglamentación que pretenden los firmantes de la carta. Después de todo, ya existen diversos candados para que las Inteligencia Artificiales no sobrepasen límites establecidos.
En todo caso, tales limitantes deberían de ver con el comportamiento humano que, como siempre, es el factor preocupante (un arma no es peligrosa sino hasta que cae en las manos de un individuo).
Con todo, es innegable que deben de considerarse las posibles consecuencias de continuar avanzando en el campo de la Inteligencia Artificial sin progresar, paralelamente, en el uso seguro y ético de dichas herramientas, que, sin duda alguna, deberán contar regulación y supervisión adecuadas.
El desarrollo de IA sin control podría tener consecuencias negativas significativas para la sociedad, como se destaca en la carta abierta. Por esta razón, es importante abordar el desarrollo de la IA con cautela y asegurarse de que se utilice de manera que beneficie a la humanidad en su conjunto.
Desarrollo responsable de IA
Una forma de garantizar que el desarrollo de la IA se aborde de manera responsable es centrarse en la ética y los valores humanos. Esto significa diseñar sistemas de IA con el objetivo de beneficiar a la sociedad en su conjunto, en lugar de solo a unos pocos individuos u organizaciones seleccionados. Además, la IA debe desarrollarse de manera que esté alineada con los valores humanos, como la transparencia, la equidad y la responsabilidad.
¿Qué opina Sam Altman, CEO de OpenAI?
Sam Altman, CEO de OpenAI ha declarado estar en línea con el contenido de la carta abierta y, en general, comparte las preocupaciones que el grupo de expertos ha expresado.
Sin embargo, Altman también señala que existe la necesidad de continuar la investigación y el desarrollo de tecnologías de IA para garantizar que se desarrollen de manera responsable y segura. Él enfatiza la importancia de tener un grupo diverso de personas involucradas en la investigación y el desarrollo de la IA, incluidas personas de diferentes orígenes y con diferentes perspectivas.
La respuesta de Altman sugiere que OpenAI reconoce los riesgos potenciales de la IA y está tomando medidas para abordar estas preocupaciones mientras sigue avanzando en el campo. En general, parece que OpenAI está comprometida con el desarrollo de IA responsable y está trabajando activamente para garantizar que sus esfuerzos de investigación y desarrollo estén alineados con este objetivo.
Lee más sobre este y otros temas relaciones en la sección SEO de mi blog, tales como el titulado ¿Están los redactores de contenido en peligro por el avance de la IA?
Preguntas frecuentes sobre si pausar las Inteligencias Artificiales tiene sentido
¿Qué es Chat GPT?
ChatGPT es un modelo de lenguaje de inteligencia artificial desarrollado por OpenAI, basado en la arquitectura GPT-3.5. Está diseñado para procesar y generar un lenguaje similar al humano en respuesta a una amplia gama de indicaciones o entradas.
¿Cuáles son algunas otras herramientas similares a ChatGPT?
Otras herramientas similares a ChatGPT incluyen modelos de lenguaje como GPT-3, BERT y Transformer-XL. Estos modelos de lenguaje también se basan en arquitecturas de aprendizaje profundo y están diseñados para procesar texto en lenguaje natural.
¿Cuál es el enfoque de OpenAI para el desarrollo de IA responsable?
El enfoque de OpenAI para el desarrollo de IA responsable enfatiza la importancia de la seguridad, la transparencia y la alineación con los valores humanos. Han pedido una mayor transparencia y supervisión en la investigación y el desarrollo de la IA.
¿Por qué la carta abierta pedía una pausa en los grandes experimentos de IA?
La carta abierta que solicita una pausa en los experimentos gigantes de IA fue motivada por preocupaciones sobre los riesgos potenciales de dichos experimentos, y la necesidad de una mayor transparencia y supervisión en la investigación y el desarrollo de IA.
¿OpenAI reconoce los riesgos potenciales de la IA?
Sí, OpenAI reconoce los riesgos potenciales de la IA y está tomando medidas para abordar estas preocupaciones mientras sigue avanzando en el campo. Destacan la importancia de un desarrollo de IA responsable y seguro.
Relacionado
Luis Ignacio Sánchez Rojas
Historiador, fotógrafo y analista SEO. Escribo también sobre videojuegos y me considero un divulgador del turismo y la cultura de Teziutlán (Puebla).