Emberi segítség nélkül tanulta meg a go játékot egy program

2017. október 19. - 19:28 | Tech

Emberi segítség nélkül tanulta meg a go társasjátékot a továbbfejlesztett AlphaGo: a Zero elnevezésű verzió elődjét is megverte - számoltak be a fejlesztők a Nature tudományos lap aktuális számában.

Emberi segítség nélkül tanulta meg a go játékot egy program
Illusztráció

A fejlesztők májusban közölték, hogy nem játszik többé ember ellen az AlphaGo, a jövőben komolyabb feladatokra koncentrálnak.

Miután az AlphaGo 3:0 arányú győzelmet aratott a világ jelenlegi legjobb gojátékosa, a kínai Ko Csie ellen, a fejlesztők más, általánosabb algoritmusokra koncentrálnak, olyanokra, amelyek segíthetik az emberiséget - mondta Demis Hassabis, a DeepMind brit fejlesztő cég alapítója és vezetője az utolsó játszma után. A DeepMindot több mint három éve vásárolta meg a Google konszern (2015 óra Alpahbet Inc.).

A feladatok között lehet új gyógyszerek kifejlesztése, az energiafelhasználás csökkentése vagy új anyagok feltalálása.

David Silver, a DeepMind szakértője és kutatótársai szerint az új szoftvergeneráció fejlesztésével olyan rendszert akarnak kiépíteni, amely a játékot fokozatosan tanulja el, önállóan fejlődik tovább, tehát "emberi beavatkozás nélkül működik".

A szoftver győzelme a világ legbonyolultabbnak tartott stratégiai társasjátékában annak bizonyítéka, hogy a mesterséges intelligencia alkalmanként jobbnak bizonyul bonyolult feladatok megoldásában, mint az ember.

A go több ezer éves múltra visszatekintő stratégiai társasjáték, amelyben két játékos helyez el fehér és fekete köveket egy négyzetrácsos mezőn. A játék rendkívül népszerű az ázsiai országokban, a legjobb játékosok rendre Kínából, Japánból és Dél-Koreából kerülnek ki.

(MTI)