Pastila zilei #232: 2029 și după
Dezvoltarea inteligenței artificiale (AI), sigure și benefice, se ramifică în provocările asociate cu inteligența generală artificială (AGI) și superinteligența artificială (ASI).
Plecarea lui Ilya Sutskever de la OpenAI (si a altora, in special din echipa de aliniere — asigurarea că AI este aliniată cu valorile umane), o figură importantă în domeniul AI, în termeni aparent amiabili, ridică întrebarea dacă OpenAI a atins deja AGI. In orice caz, mai toti expertii si dezvoltatorii estimeaza ca vom fi la nivelul AGI cel tarziu in 2029. De asemenea, discuțiile despre nemurirea digitală sau problema Mullock (riscul ca cercetarea siguranței AI să fie folosită pentru a crea AI mai periculoase) sunt de mare importanta acum, necesitand analize în profunzime.
Mai mult, potențialul ca tehnologia ASI să fie atinsă în următorul deceniu este ridicat. Această perspectivă ridică îngrijorări referitoare la riscurile asociate, precum posibilitatea ca o ASI să devină incontrolabilă sau ostilă. Necesitatea cercetării continue a siguranței AI este si motivul pentru care a fost recent abordat subiectul AI Kill Switch. Putin probabil insa ca orice decizie a omului sa nu fie depasita de masina.