Este artículo describe un marco de cinco planes estratégicos (A-E) para mitigar el riesgo de desalineación de la IA, caracterizados por la disminución de los niveles de voluntad política necesarios y los plazos correspondientes para el trabajo de seguridad. El plan A, que exige una fuerte cooperación internacional, prevé un período de 10 años para una amplia inversión en seguridad y un despegue lento y controlado de la IA. El plan B implica un plazo de 1 a 3 años garantizado por el gobierno de los Estados Unidos para realizar esfuerzos específicos en materia de seguridad. El plan C se basa en que una empresa líder en IA utilice su ventaja de 2 a 9 meses para trabajar en la desalineación, con el objetivo de lograr una transferencia rápida, aunque potencialmente «deficiente», de la IA. El plan D describe un escenario con una aceptación institucional mínima, en el que un pequeño equipo interno asigna un limitado poder de cómputo a la mitigación de riesgos, centrándose en extraer información de la investigación y prepararse para una transferencia plausiblemente segura. El plan E representa una ausencia casi total de esfuerzos dedicados, lo que requiere centrarse en aumentar la voluntad política. Asociados a estos planes hay riesgos estimados de toma de poder por parte de la AI que van desde el 7 \% (plan A) hasta el 75 \% (plan E). El análisis de estas probabilidades y niveles de riesgo sugiere que los esfuerzos deben centrarse principalmente en avanzar en los planes C y D, haciendo hincapié en el papel fundamental del personal y los dirigentes de las empresas de AI a la hora de abordar la seguridad existencial. – Resumen generado por IA.
What is Altruismo Eficaz?
Repositorio exhaustivo de lecturas sobre altruismo eficaz, riesgo existencial e investigación sobre prioridades globales.