“it’s not just AIs that are imperfect. Humans are wildly imperfect, and one thing they turn out to be very bad at is supervising AIs”
“Humans in the loop experience a diminished sense of control, responsibility, and moral agency. That means that they feel less able to override an algorithm — and they feel less morally culpable when they sit by and let the algorithm do its thing.”
Totalmente de acuerdo, y quizás lo bueno es que en muchas aplicaciones IA la verificación no es necesaria ya que no hay respuestas incorrectas. Por ejemplo, al usar GenAI para contenidos de marketing.
El problema es cuando se usa GenAI para problemas que realmente se solucionan mejor con otras técnicas de análisis de datos. Por ejemplo, si usas copilot para Excel es fantástico para crear un gráfico pero como le pidas que haga cálculos y fórmulas en memoria se hace un lio y empieza a inventarse cifras.
Verificar es algo que hacemos con humanos. Si tienes alguien en tu equipo haciendo algo lo tienes que verificar (de vez en cuando) para comprobar que funciona y que puedes delegar con confianza.
Verificar es ineficiente a corto plazo pero eficiente a largo ya que permite escalar sistemas. Yo soy tecno optimista de que encontraremos la solución a este problema actual.
Para equipos y cuando necesitas escalar veo que sí, como dices.
Pero, por ejemplo, para un periodista que tenga que escribir un largo artículo (3000 palabras, por ejemplo), mi duda es: Si lo investiga en la forma tradicional quizás le lleve 3 horas. Si se lo pide a ChatGPT, lo tiene en 10 minutos, más quizás media hora jugando con los prompts.
Pero luego queda verificar esas 3.000 palabras. Y si puedo hacerlo en 2 horas, vale, me he ahorrado 20 minutos.
Pero, y es un gran pero:
1- No está claro que yo tenga el copyright, pues el 90% del contenido no es humano.
2- Siempre me quedará la duda de si no he verificado bien todo.
3-Siempre me podrán decir que ese artículo ha sido hecho con IA y no podré rebatirlo.
4-Si el draft de ChatGPT se usa para entrenar la máquina (y no tengo tan claro los controles de privacidad en la práctica), quizás aparezca una buena parte en un diario de la competencia, y puede ponerse en tela de juicio quién copió a quién.
Prompt.... siempre, aunque ahora más, las preguntas son lo más importante. Para hacer buenas preguntas la experiencia debe ser tan importante como la esperanza, sin olvida la ética.
Muy bueno el newsletter de esta semana, un gran análisis del libro.
Sobre el tema del “human in the loop” creo que te gustará este ensayo de Coro Doctorow:
https://pluralistic.net/2024/10/30/a-neck-in-a-noose/#is-also-a-human-in-the-loop
“it’s not just AIs that are imperfect. Humans are wildly imperfect, and one thing they turn out to be very bad at is supervising AIs”
“Humans in the loop experience a diminished sense of control, responsibility, and moral agency. That means that they feel less able to override an algorithm — and they feel less morally culpable when they sit by and let the algorithm do its thing.”
Muy bueno el artículo y este comentario. El problema es tener que verificar. No es eficiente.
Totalmente de acuerdo, y quizás lo bueno es que en muchas aplicaciones IA la verificación no es necesaria ya que no hay respuestas incorrectas. Por ejemplo, al usar GenAI para contenidos de marketing.
El problema es cuando se usa GenAI para problemas que realmente se solucionan mejor con otras técnicas de análisis de datos. Por ejemplo, si usas copilot para Excel es fantástico para crear un gráfico pero como le pidas que haga cálculos y fórmulas en memoria se hace un lio y empieza a inventarse cifras.
Verificar es algo que hacemos con humanos. Si tienes alguien en tu equipo haciendo algo lo tienes que verificar (de vez en cuando) para comprobar que funciona y que puedes delegar con confianza.
Verificar es ineficiente a corto plazo pero eficiente a largo ya que permite escalar sistemas. Yo soy tecno optimista de que encontraremos la solución a este problema actual.
Para equipos y cuando necesitas escalar veo que sí, como dices.
Pero, por ejemplo, para un periodista que tenga que escribir un largo artículo (3000 palabras, por ejemplo), mi duda es: Si lo investiga en la forma tradicional quizás le lleve 3 horas. Si se lo pide a ChatGPT, lo tiene en 10 minutos, más quizás media hora jugando con los prompts.
Pero luego queda verificar esas 3.000 palabras. Y si puedo hacerlo en 2 horas, vale, me he ahorrado 20 minutos.
Pero, y es un gran pero:
1- No está claro que yo tenga el copyright, pues el 90% del contenido no es humano.
2- Siempre me quedará la duda de si no he verificado bien todo.
3-Siempre me podrán decir que ese artículo ha sido hecho con IA y no podré rebatirlo.
4-Si el draft de ChatGPT se usa para entrenar la máquina (y no tengo tan claro los controles de privacidad en la práctica), quizás aparezca una buena parte en un diario de la competencia, y puede ponerse en tela de juicio quién copió a quién.
Juan, he convertido esta conversación en una nota, porque me parece un tema interesante también para los que no leen comentarios:
https://substack.com/profile/172879528-salvador-lorca/note/c-81175221
muy bueno, lo has escrito y luego repasado con ChatGPT? si lo has hecho, bien hecho , si no lo has hecho , también está bien hecho
Un post extraordinario. Muchas gracias
Prompt.... siempre, aunque ahora más, las preguntas son lo más importante. Para hacer buenas preguntas la experiencia debe ser tan importante como la esperanza, sin olvida la ética.