Keresés

Új hozzászólás Aktív témák

  • #54625216

    törölt tag

    válasz ddekany #100 üzenetére

    Az a fő kérdés, hogy ha az AI esetenként olyat hibázik, amit az ember soha, az arányban van-e azzal, amit meg az emberek hibáznak és az AI kerülné el 100% biztonsággal.
    Az AI ugyanis csoportosan tanítható szemben az emberrel, ami meg egyedileg képes ugyan tanulni, de csoportosan idióta.
    Tehát míg az AI általi hibák a fejlesztés logikájából adódóan fokozatosan ritkulnak, addig az emberi hibák számát csak a szabályozás drasztikus változtatásával lehet befolyásolni (valamennyire).

    Értsd: lehet, hogy mondjuk az AI minden 200 esetből egyszer nem ismeri fel, hogy a zebrán egy néni toporog és ezért elüti, míg egy ember rögtön megállna.
    De ha az eset alapján továbbfejlesztik az AI-t, akkor ez az arány akár egy teljes nagyságrendet is javulhat, míg ha mondjuk az ember által elkövetett zebrán gázolások arányát akarnák javítani, akkor ahhoz büntetőtételeket kell módosítani, bekamerázni a zebrákat, vagy drasztikus esetben bevonni a zebrán áthajtók jogsiját, különben az emberi vezetők viselkedése statisztikai értelemben nem javulna.

    Továbbá az AI csoportosan olyan dolgokra is megtanítható, amire az ember (csoportosan) alig. Az autók folyamatosan küldhetik trainingre a valós adatokat, amiből aztán a teljes rendszer tanul. Mondjuk ha egy útszakaszon átszalad a kocsi előtt egy szarvascsorda, akkor ez az adat bekerülhet a térkép adatbázisba. Ha aztán a szarvasok vándorlása statisztikailag szignifikánssá válik, akkor az összes arra járó autó fel lenne készülve, hogy azon az útszakaszon nagyobb a vészfékezés lehetősége, ezért figyelmeztető tábla nélkül is visszavenne a sebességből. Ha kisodródik a kanyarban, azzal a többi autó is fel lenne készülve a veszélyes kanyarra és így tovább.
    Ehhez képest hány halálos balesetnek kell történnie egy adott útszakaszon, hogy végre felfessenek egy záróvonalat ugye és az se garancia arra, hogy azt bárki komolyan is veszi.

    Az sem mellékes, hogy a balesetek igen jelentős száma abból adódik, hogy a közlekedésben résztvevők hogyan viselkednek egymással. Ahogy nő tehát az önvezető autók száma, úgy válik egyre kiszámíthatóbbá a közlekedés, mert az autók össze tudják szinkronizálni egymással a döntéseiket már az útvonal választás optimalizálásától kezdve.

    Ami a felborult tűzoltóautót illeti, az pont nem jó példa, mert az simán lekövethető fizikával: mozog, vagy nem mozog. Hogy miért nem mozog, az a vezetés szempontjából lényegtelen, akkor is ki kell kerülni, ha csak szimplán leparkolt és akkor is, ha feldőlt.

    Az AI meg eleve nem úgy működik, hogy kiolvassa a szenzor adatokat, feldolgozza, majd azok alapján eldönti, hogy mi a legjobb megoldás, hanem előre végigszámolja a szenzor adatok lehetséges verzióit és a szenzorok kiolvasásakor azt a scenáriót veszi elő, ami a legjobban illeszkedik a mért adatokhoz.
    Azaz lehet, hogy az AI nem tud különbséget tenni egy felborult és egy parkoló tűzoltóautó között, így számol azzal a lehetőséggel is, hogy az mégis elindul, de ez a döntéshozatal pillanatában csak egy lesz a be nem következett, ezért ignorált scenáriókból.

    [ Szerkesztve ]

Új hozzászólás Aktív témák