Új hozzászólás Aktív témák

  • ddekany

    veterán

    válasz XMI #33 üzenetére

    Ez egy elég reális #mindmeghalunk szcenárió ami írsz. Egy a sok lehetőség közül persze. Csak mondom azoknak, akik állandóan a terminátorral csúfolódnak ennek kapcsán.

    Eme "őrült terroristák" gond ellen egy megoldás a nagyon szigorú megfigyelés és kontroll. Azaz, valamelyik gigacég (vagy startupnak) jelentős előnnyel megépíti az első szuperintelligenciát (kb. a szingularitást), és átveszi a hatalmat. Valahogy... ez önmagában igen meredek és rizikós mutatvány persze. Hogy a folytatás érdekességeit ne is említsük.

    Persze az "örült terrorista" szcenárió is lehet egy megoldás, ha amit csinál, az azt MI túléli (mint. pl. biológia fegyvereket), mert akkor ez lehet n+1. variáció arra, hogy hogyan cserélődik le az emberi egy (remélhetően) fejletteb létformára. Viszont fontos, hogy az MI önálló "életre" képes legyen, meg motivált a megmaradásra, mire ilyesmi bekövetkezik. Márpedig még önálló létre nem alkalmas AI-val is simán kiírthatjuk egymást.

    Bizonyos vagyok benne, hogy sok kulcs pozícióban lévő ember végig zongorázta ezeket a fejében, ha valóban hisz abban, hogy meg tudják építeni a szuperintelligenciát. De ilyen brutális dolgokat nyilván nem lehet elmondani az embereknek.

Új hozzászólás Aktív témák