CRITIQUE OF THE ASILOMAR AI PRINCIPLES = AZ ASILOMARI ELVEK KRITIKÁJA
Abstract
The intelligent man with consciousness is the pinnacle of the evolution of matter that we know. So
far. We know, however, that evolution will not stop. Although with sections and dead ends of
varying lengths, it is moving towards the increasing complexity of organizations, so it is probably
not the human in today's sense is its end point. The development of artificial intelligences that we
are planning, for example, may meet both our intentions and the criteria of evolution, but as a
novelty it also holds the possibility of a future without us. The latter, in turn, creates tension
between the species-maintainer desires of homo sapiens and the unknown future course of
evolution. The Asilomar principles seek to alleviate this tension by limiting the development of
artificial intelligences. However, as technological advances lead to an increase in autonomy, this is
at most a plan for time-gaining. In addition to the Asilomar program, then, there is a need for a
“Second Foundation” that can reconcile the future of man not only with artificial intelligences but
also with evolution. If we want to survive, the evolutionary adaptation of homo sapiens could really
ease the pressure of technological determinism on us.
At the 2017 International Conference on Artificial Intelligence Safety Technology in Asilomar,
participants signed an agreement.[1] They were of the opinion that the development of artificial
intelligences should be controlled. More specifically, to limit the future development of algorithms
in a way that suits for homo sapiens. In doing so, they sought to meet the future challenges posed
by autonomous technologies.[2] The question is whether the Asilomar goal is a real possibility or
just a formulation of desires? In the following, after a brief introduction to the ability or get know
and formability of the future, I examine the truthfulness of the Asilomar program.
//////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////
A tudattal rendelkező intelligens ember az anyag evolúciójának általunk ismert csúcsa. Egyelőre. Az evolúcióról viszont tudjuk, hogy nem áll le. Változó sebességű szakaszokkal és zsákutcákkal ugyan, de a szerveződés egyre nagyobb komplexitása felé halad, így valószínűleg nem is a mai értelemben vett ember a végpontja. Az általunk tervezett mesterséges intelligenciák fejlődése például egyaránt megfelelhet a mi szándékainknak, valamint az evolúció kritériumainak, de újdonságként már magában rejti egy velünk nem számoló jövő lehetőségét is. Ez utóbbi pedig feszültséget teremt a homo sapiens fajfenntartó vágyai és az evolúció ismeretlen jövőbeli kifutása között. Az asilomari elvek ezt a feszültséget a mesterséges intelligenciák fejlődésének korlátozásával kívánják enyhíteni. Mivel azonban a technológiai fejlődés az autonómia növekedése felé halad, ez legfeljebb időnyerésre alkalmas terv. Az asilomari program mellett tehát szükség van egy „Második Alapítványra”, amelyik az ember jövőjét nem csak a mesterséges intelligenciákkal, de az evolúcióval is képes egyeztetni. Ha ugyanis fenn akarunk maradni, akkor a homo sapiens evolutív alkalmazkodásával lehetne igazán könnyíteni a technológiai determinizmus ránk nehezedő nyomásán.
2017-ben Asilomarban a mesterséges intelligenciák biztonságtechnikájával (AI-safety) foglalkozó nemzetközi konferencián a résztvevők aláírtak egy megegyezést.[1] Azon a véleményen voltak, hogy a mesterséges intelligenciák fejlődését irányítani kell. Pontosabban az algoritmusok jövőbeni fejlődését a homo sapiens szempontjából megfelelő keretek közé szorítani. Mindezzel pedig az autonóm technológiák jelentette jövőbeni kihívásoknak próbáltak megfelelni.[2] Kérdés, hogy az asilomari célkitűzés valós lehetőség-e, vagy csak a vágyak megfogalmazása? Az alábbiakban a jövő megismerhetőségét és alakíthatóságát taglaló rövid bevezető után az asilomari program igazságtartalmát vizsgálom meg.
Collections
- Nem PTE szerzők [134]