Bioterror és bioerror
A tudomány gyors fejlődése nyomán sokan jövendölnek világvégét.
Ma már három tudományos központ munkája is egy új tudományágat képvisel: az egzisztenciális kockázatok kutatása azt vizsgálja, hogyan tudná a tudomány elpusztítani az életet, és hogyan lehetne azt megakadályozni.
A University of Oxford filozófusa, Nick Bostrom úgy véli, megvan rá az esély, hogy a mesterséges intelligencia (AI) megléte miatt a Homo sapiens kihal. Bostrom 2014-es bestsellerében (Superintelligence: Paths, Dangers, Strategies) felvázol egy lehetséges forgatókönyvet, amiben az önfejlesztő AI megtanulja, hogyan tehet szert pénzre online tranzakciókból. Az AI a megszerzett pénzből különböző való világbeli szolgáltatások és áruk vásárlásába kezd, majd ideggázt és célpontkereső szúnyogszerű robotokat gyártat a világ számos helyén, és egyszerre a világra szabadítja azokat.
Mint a University of Cambridge keretein belül szerveződött Centre for the Study of Existential Risk (CSER) vezetője, a szintén filozófus Huw Price az egzisztenciális kockázatok kutatására szerveződött intézeteket bemutató Science-cikkben (Kai Kupferschmidt: Taming the Monsters of Tomorrow) elmondja: az ilyen forgatókönyvek manapság többet jelentenek egyszerű science fiction-nél, a kutatóintézetekben dolgozó néhány tucatnyi tudós munkája pedig felhívja a figyelmet azokra a lehetséges veszélyekre, amelyek valóban fenyegetik fajunkat. A CSER nagynevű támogatókat is szerzett magának: tudományos tanácsadó bizottságának tagja a fizikus Stephen Hawking, George Church, a Harvard biológusa, Peter Piot egészségügyi vezető és a tech vállalkozó Elon Musk is. A központ 12 dolgozója előadásokat szervez, különböző témákban publikál (pl. hogyan kellene szabályozni a szintetikus biológiát, melyek lehetnek az ökológiai buktatók), próbál meggyőzni más kutatókat, hogy foglalkozzanak a jövőbeli fejlődési lehetőségekkel, és ideje legnagyobb részét azzal tölti, hogy megpróbál elképzelni világvége-forgatókönyveket és azok lehetséges ellenszereit.
A kommentátorok szerint az ötlet, hogy az emberiség a tudomány révén kiirthatja önmagát, Mary Shelley regényéhez, a Frankenstein-hez vezethető vissza. A CSER igazgatótanácsának tagja, a Massachusetts Institute of Technology fizikusa, Max Tegmark hozzáteszi: Frankenstein jól illusztrálja a problémakört; az emberiség azóta is fokozatosan egyre fejlettebb és bonyolultabb technológiákat fejleszt. Minél hatalmasabbá válik azonban a technika, az emberiségnek annál óvatosabbá kell lennie, hogy ne rontson el általa valami alapvetőt. Tegmark annyira igyekszik kivenni a részét az óvatosságból, hogy maga is alapított egy egzisztenciális kockázatok kutatására szakosodott intézetet (Future of Life Institute/FLI).
Nem mindenki van azonban meggyőződve arról, hogy az új tudományágat érdemes komolyan venni. Az élettudományok jogi szabályozási problémáival foglalkozó Joyce Tait (Innogen Institute, Edinburgh) szerint a legtöbb civilizációvéget felvázoló szcenárió (pl. emberek által létrehozott patogének vagy a világ egyszerű kikapcsolása, mivel az pusztán szimuláció) valójában valószínűtlen. Mindazonáltal 1945 júliusa – az első atombomba-robbantás – óta a tudományos haladás jelentette egzisztenciális kockázat nem fikció többé, szögezi le Bostrom, aki a harmadik intézet, az Oxfordban működő Future of Humanity Institute alapítója. Azonban, mint mondja, a teljes emberiséget kiirtó nukleáris katasztrófa helyett inkább olyan forgatókönyvek valószínűek, amelyekben az élettudományok játsszák a fő szerepet, és nem a teljes emberiség pusztul el, csak egy nagy része. Példaként itt van rögtön az a kutatás, aminek révén a H5N1 madárinfluenza vírusa könnyebben átjut a különböző emlősfajok között, és ami miatt a kockázatos vírusokkal foglalkozó kutatások finanszírozását az amerikai National Institutes of Health 2014-ben felfüggesztette. A 3 éves moratórium azonban 2017 decemberében véget ért, és a NIH az ígéretek szerint segíteni fogja a potenciális pándémiát okozó patogének (pl. influenza, Middle East respiratory syndrome/MERS-coronavirus) felelősségteljes kutatását.
A harvardi mikrobiológus Marc Lipsitchkiszámolta, mi a valószínűsége, hogy egy laboratóriumban előállított influenza vírus véletlen baleset következtében kiszabadul és pándémiát okoz: ennek esélye kutatási évenként 1/1000 és 1/10 000 közötti egyetlen laborban (Moratorium on Research Intended To Create Novel Potential Pandemic Pathogens; mBio). Egy másik kutató, Ron Fouchier (Erasmus University Medical Center, Rotterdam) szerint – aki érintett volt a H5N1 transzmissziós képességét fokozó kutatásban –, a veszély ennél jóval kisebb: mindössze 33 milliárd/év és labor (Studies on Influenza Virus Transmission between Ferrets: the Public Health Risks Revisited; mBio).
Mivel azonban valószínűtlen, hogy a vírusok minden egyes embert kiirtsanak, a legtöbbek szerint a valódi egzisztenciális kockázatot az AI jelenti, és nem azáltal, hogy esetleg fellázadna teremtője ellen, hanem egy esetleges végzetes hiba elkövetése miatt, pl. olyan környezet létrehozásával, ami fatális az ember számára. Képzeljük el pl., hogy az AI munkálkodása melléktermékeként a hőmérséklet emelkedik vagy csökken 100 fokkal: az emberiség azonnal kihalna. Mint Tegmark kifejti: a valódi probléma az AI-vel nem a rosszindulat, hanem az inkompetencia lehet, ezért ki kell találni, hogyan lehet az AI-nak humán értékeket tanítani, és elérni, hogy tartsa magát azokhoz (érték-összehangolás, value alignment). Mindazonáltal, napjainkban kevesebb mint 20 ember foglalkozik teljes munkaidőben technikai AI biztonsági kutatással.
Tegmark szerint egyébként a kutatóknak kötelességük, hogy részt vegyenek a tudománnyal járó egzisztenciális kockázatok kutatásában, mivel azok jóval nagyobbak, mint a tudománytörténet során bármikor. Eddig egy-egy új technológia megjelenésekor az emberiség megvárta, hogy nyilvánvalóak legyenek a kockázatai, majd utána megpróbálta ezeket a kockázatokat csökkenteni. A tűz városokat pusztított el, ezért az emberek kitalálták a tűzoltókat és az égésgátló anyagokat. Az autók megjelenésével elszaporodtak a közlekedési balesetek, minek utána megjelentek a biztonsági övek és a légzsákok. Az emberiség azt a stratégiát alkalmazza, hogy a hibából tanul, mondja Tegmark, azonban amikor a világvégét kockáztatjuk, ez igencsak rossz stratégia.