«Hay que ganar tiempo»: la solución drástica para salvar a la humanidad de un aclamado gurú
Vitalik Buterin, el gurú tecnológico reconocido y admirado por ser uno de los fundadore de Ethereum, propuso una solución drástica para abordar los riesgos potencialmente catastróficos de la inteligencia artificial (IA) superinteligente.
En un contexto donde la tecnología avanza a pasos agigantados, Buterin sugiere la implementación de una «pausa suave» en el uso de recursos computacionales a gran escala. Esta pausa implicaría una reducción del 90% al 99% en la potencia de cálculo global durante uno o dos años, con el objetivo de «ganar tiempo» para que la humanidad pueda entender y gestionar mejor las implicaciones de esta tecnología.
La preocupación por la superinteligencia artificial no es nueva. A inicios de 2023, en pleno boom de ChatGPT, Elon Musk también había abogado por una pausa en el desarrollo de IA, sugiriendo un período de seis meses para reevaluar los riesgos asociados.
Musk, conocido por su postura crítica sobre la IA, ha sido un defensor de la regulación y el control en este ámbito, argumentando que el desarrollo sin restricciones podría llevar a resultados desastrosos. La propuesta de Buterin se alinea con esta visión, pero va más allá al plantear medidas concretas para limitar el hardware utilizado en el desarrollo de IA.
Salvar a la humanidad: cómo es la propuesta de Vitalik Buterin
Buterin propone varias estrategias para implementar esta pausa suave. Una de ellas incluye la localización y registro de los chips utilizados en IA, así como la creación de un sistema donde el hardware solo pueda operar si recibe una firma triple de organismos internacionales cada semana. Este enfoque busca asegurar que las decisiones sobre el uso de IA sean revisadas y controladas por entidades independientes, lo que podría prevenir abusos y malentendidos sobre su funcionamiento.
Además, Buterin enfatiza que esta pausa no es solo una cuestión técnica, sino también ética. Propone que aquellos que desarrollen o implementen sistemas de IA sean responsables por los daños que puedan causar. Esta idea resuena con las preocupaciones actuales sobre la falta de regulación en el ámbito tecnológico y la necesidad de establecer límites claros para proteger a la sociedad.
El creciente debate por la inteligencia artificial
El debate sobre los riesgos asociados con la inteligencia artificial cobró fuerza en los últimos años, especialmente con el avance de modelos como GPT-4 y otros sistemas que demostraron capacidades sorprendentes. Sin embargo, muchos expertos advierten que estos avances también traen consigo riesgos inminentes, como el uso indebido de la tecnología o incluso escenarios apocalípticos donde la IA podría actuar en contra de los intereses humanos.
Buterin señaló que la IA superinteligente podría estar más cerca de lo que se piensa, posiblemente a solo cinco años. Esto ha llevado a un llamado urgente para establecer medidas preventivas antes de que sea demasiado tarde. La propuesta de Buterin se presenta como una forma proactiva de abordar estos desafíos antes de que se conviertan en crisis.
La propuesta de Vitalik Buterin para implementar una «pausa suave» en el desarrollo de IA refleja una creciente preocupación entre líderes tecnológicos sobre el futuro del desarrollo tecnológico sin restricciones. Al igual que Musk, Buterin aboga por un enfoque cauteloso que priorice la seguridad humana sobre el avance tecnológico desmedido. Con estas medidas radicales, ambos buscan crear un marco más seguro para explorar las capacidades de la IA mientras se minimizan los riesgos asociados.
https://www.cronista.com/infotechnology/actualidad/hay-que-ganar-tiempo-la-solucion-drastica-para-salvar-a-la-humanidad-de-este-guru/
Compartilo en Twitter
Compartilo en WhatsApp
Leer en https://www.cronista.com/infotechnology/actualidad/hay-que-ganar-tiempo-la-solucion-drastica-para-salvar-a-la-humanidad-de-este-guru/