Un par de discrepancias. No hay obra cumbre de la evolución, la vida se ramifica, no hay especies mejores que otras. Por otra parte, el hombre como especie sí tiene algunos rasgos físicos que le han dotado de ventajas, como la capacidad de disipar el calor corporal (la más alta) y la de correr muy largas distancias. Por lo demás, dos dudas u observaciones, si no sabemos cómo se produce nuestra conciencia, no podemos saber si la IA será consciente. Por otro lado, la IA hace correlaciones, pero no tiene semántica. Mientras esto sea así, y no sabemos cuándo dejará de serlo, la IA fabrica cadena de signos etc., pero no "sabe" qué significan. Una limitación apabullante.
Aunque me ha gustado tu punto de vista y me flipan especies que ya no cambian porque son “perfectas” para su entorno (tiburón), el ser humano (mono sin pelo que disipa calor muy bien, manipula objetos y colabora en base a ficciones que se inventa) está en condiciones de salir de su planeta natal y colonizar otros. Eso me parece la cúspide de la evolución 😀
Y la IA, pues no sé, igual no necesita nada de eso, ni “razonar” como nosotros para pegarnos un repaso que flipas. Hay diferentes estrategias evolutivas 😉
No estaba yo mentalizado para tener que pensar en estos temas así, con el desayuno, un día cualquiera.
Todos los escenarios negativos que planteas los hemos leído una y otra vez en la ciencia ficción, pero les hemos dado la misma importancia que a “Narnia” o “Hogwarts”. Eran historias.
Ahora resulta que pueden ocurrir en cualquier momento, aquí, en el reino real de Hacendado y de Starbucks.
Si la SIA es el súmmum del conocimiento y este resulta ser una batalla perdida para los humanos y además la SIA no tiene conciencia, recuerdo que el Homo sapiens es la evolución relacional de humanos anteriores. Hemos mejorado no por autoaprendizaje, sino por aprendizaje relacional. Somos más inteligentes porque nos hemos hecho más sociales. ¿Habrá que socializar con una SIA sin conciencia y con objetivos distintos a los de los humanos, puesto que para empezar, no es biológica (no siente, desea o padece)? ¿Es posible un juego de suma positiva de forma permanente? Y si no lo es, me pregunto como se puede parar antes de llegar al precipicio.
¿Serán las AGI con nosotros como nosotros con los animales con menos poder cognitivo? ¿Nos hibridaremos? ¿Evolucionaremos con ellas?
Seremos “subseres” comparados con ellas en el sentido de capacidad cognitiva. Ellas seguirían investigando IA y cada día mejorarían varios órdenes de magnitud.
Un par de discrepancias. No hay obra cumbre de la evolución, la vida se ramifica, no hay especies mejores que otras. Por otra parte, el hombre como especie sí tiene algunos rasgos físicos que le han dotado de ventajas, como la capacidad de disipar el calor corporal (la más alta) y la de correr muy largas distancias. Por lo demás, dos dudas u observaciones, si no sabemos cómo se produce nuestra conciencia, no podemos saber si la IA será consciente. Por otro lado, la IA hace correlaciones, pero no tiene semántica. Mientras esto sea así, y no sabemos cuándo dejará de serlo, la IA fabrica cadena de signos etc., pero no "sabe" qué significan. Una limitación apabullante.
Aunque me ha gustado tu punto de vista y me flipan especies que ya no cambian porque son “perfectas” para su entorno (tiburón), el ser humano (mono sin pelo que disipa calor muy bien, manipula objetos y colabora en base a ficciones que se inventa) está en condiciones de salir de su planeta natal y colonizar otros. Eso me parece la cúspide de la evolución 😀
Y la IA, pues no sé, igual no necesita nada de eso, ni “razonar” como nosotros para pegarnos un repaso que flipas. Hay diferentes estrategias evolutivas 😉
Bueno en general una gran entrada, muy interesante y valiosa. Enhorabuena.
No estaba yo mentalizado para tener que pensar en estos temas así, con el desayuno, un día cualquiera.
Todos los escenarios negativos que planteas los hemos leído una y otra vez en la ciencia ficción, pero les hemos dado la misma importancia que a “Narnia” o “Hogwarts”. Eran historias.
Ahora resulta que pueden ocurrir en cualquier momento, aquí, en el reino real de Hacendado y de Starbucks.
Merde 🙃
Matrix? Habrá que ir buscando a Trinity, Morfeo y Neo.
Si la SIA es el súmmum del conocimiento y este resulta ser una batalla perdida para los humanos y además la SIA no tiene conciencia, recuerdo que el Homo sapiens es la evolución relacional de humanos anteriores. Hemos mejorado no por autoaprendizaje, sino por aprendizaje relacional. Somos más inteligentes porque nos hemos hecho más sociales. ¿Habrá que socializar con una SIA sin conciencia y con objetivos distintos a los de los humanos, puesto que para empezar, no es biológica (no siente, desea o padece)? ¿Es posible un juego de suma positiva de forma permanente? Y si no lo es, me pregunto como se puede parar antes de llegar al precipicio.
sentimos más compasión por los seres que se parecen más a nosotros => El valle inquietante :)
https://www.gonzaloruizutrilla.com/p/valle-inquietante-agi
Esa es sin duda la gran pregunta.
¿Serán las AGI con nosotros como nosotros con los animales con menos poder cognitivo? ¿Nos hibridaremos? ¿Evolucionaremos con ellas?
Seremos “subseres” comparados con ellas en el sentido de capacidad cognitiva. Ellas seguirían investigando IA y cada día mejorarían varios órdenes de magnitud.