share on:
Comparte!
“…Debido a la Inteligencia Artificial, seremos borrados de la superficie de la Tierra el 1 de enero de 2030 (…) una vez que la IA se vuelva lo suficientemente inteligente como para aumentar su propia inteligencia, pasará a la inteligencia infinita en un instante Y eso será todo para nosotros.”

Esa fue una apuesta que hizo el economista Bryan Caplan, de la Universidad George Mason, en Virginia, con Eliezer Yudkowsky, a quien señaló como el hombre con la visión más pesimista y extremista de la IA, según una entrevista concedida al diario. El guardián.

Bryan Caplan ha ganado un amplio reconocimiento desde que se convirtió en el hombre que triunfó en sus diferentes apuestas sobre distintos temas de interés general. Por ejemplo, acertó en sus predicciones sobre las posibilidades electorales de Donald Trump en 2016 e incluso tiende a apostar en contra de predicciones que considera exageradas.

¿Por qué dices que la IA borrará a la humanidad?

Bryan Caplan ahora apostó $ 500 a que la inteligencia artificial integrada en ChatGPT, un sistema de inteligencia artificial capaz de responder a cualquier cosa, no era tan inteligente como se pensaba anteriormente, y que no podría aprobar el examen de mitad de período de 2022 de su clase de graduación.

Aunque el ChatGPT original obtuvo una D en su prueba, apostó que «ninguna IA podría obtener A en 5 de 6 de mis exámenes para enero de 2029».

Sin embargo, en su blog Bryan Caplan informó que estaba sorprendido por la nueva versión del sistema, el GPT-4, que recibió una calificación A solo unos meses después, con una calificación de 73/100. Si hubiera sido un estudiante, habría sido el cuarto grado más alto de la clase

Con eso, Caplan aseguró que las posibilidades de victoria parecen mínimas. Para él, el futuro que nos espera con la IA es apasionante.

“Todo progreso es malo para alguien.(…) La regla general es que cualquier cosa que aumente la producción humana es buena para el nivel de vida humano”, dijo al periódico.

Tu otra apuesta

Caplan hizo una apuesta con Yudkowsky sobre la IA. Cree que primero lo logrará y luego acabará con nosotros. “Si te preguntas cómo puedes hacer una apuesta así cuando eres una de las personas que van a ser eliminadas, la respuesta es que pagué por adelantado. Solo le di el dinero por adelantado y luego,Si el mundo no se acaba me lo debe”.

Con modestia, Bryan Caplan señala que el tipo de apuestas que despiertan su interés son aquellas en las que alguien parece estar haciendo afirmaciones exageradas, «fingiendo tener mucha más confianza en el futuro de lo que creo que podría tener».

“Tuve muchos otros casos de personas que me decían lo genial que era la IA, y luego lo vi por mí mismo y claramente estaban exagerando”, dijo al periódico.

Luego señala que GPT-4 ha progresado mucho más rápido de lo que esperaba. Creo que esto significa que los efectos económicos serán mucho mayores de lo esperado.

«Dado que esperaba muy poco efecto, podría ser 10 veces más grande de lo que pensaba y aun así no ser enorme». Por lo tanto, reconsideró sus puntos de vista sobre el asunto.

“La verdad no existe, existen sólo los hechos la verdad la imponen los grandes medios y el poder detrás de ellos en las sombra”

No recibo dinero de ningún gobierno ni tampoco de algún grupo económico, los artículos que ustedes leen son producto de libertad absoluta, donde trato de escribir sobre los hechos porque sólo estos nos harán libres


Donaciones RCENI
Hector Figuera

Hector Figuera

CEO Fundador del portal RCENI Radio Centroamérica Internacional Audiovisualista Temático Antropocentrico especializado en composición.