Teknologinen singulariteetti – onko meillä tulevaisuutta?

  • 13 005
  • 83
Suosikkijoukkue
Ipa, ipa, ipa, ipaa...
Tästä aiheesta kiinnostuneet.. ei tartte odottaa sitä tietoisuutta jotta AI mullistaa meitin elämän

TED talk kiinnostuneille
Jeremy Howard: The wonderful and terrifying implications of computers that can learn
m.youtube.com/watch?v=t4kyRyKyOpo
 

mjr

Jäsen
Suosikkijoukkue
Suomen maajoukkueet
Tämän vuoksi yksilöön uskovan oikeistolaisuuden tulevaisuus on tuomittu. Meistä kaikista tulee demareita. Kun työläiset eivät enää kykene taistelemaan koneita vastaan työn teossa, koittaa uudenlainen rahan jakamisen aika. Välissä voi olla jos jonkinlaista mellakoita ja prosessi saattaa venyä pitkäksi, mutta kyllä tässä viimeisiä viedään. Ennustan, että ehdin nähdä vallankumouksen alun vielä omana elinaikanani.

Niin no, jos automaatio tosiaan toteutuu tällä monien odottamalla tasolla niin on vaikea nähdä, että nykymuotoinen kapitalismi voisi kovin helposti jatkua. Vähän vaan pelkään - kun en vain ole mikään suurin lajimme fani - että saamme aikaan vielä jotain sitäkin irrationaalisempaa ja hierarkisempaa tilalle... Tosin monesti näissä ennustuksissa käy niin, että viive on odottamattoman suuri ja muutokset ovatkin aika lailla erilaisia kuin mitä ennakoitiin. Mielenkiintoisia aikoja joka tapauksessa edessä monellakin rintamalla...
 

Byvajet

Jäsen
Tosin monesti näissä ennustuksissa käy niin, että viive on odottamattoman suuri

Kehityshän on meneillään juuri parhaillaan ja päässyt jo hyvään vauhtiin. Voi vain arvailla, kuinka paljon tietotekniikka on vienyt työpaikkoja, mutta varmaa lienee, että ilman tietotekniikaa sekä Usassa että euroopassa vallitsisi täystyöllisyys. Enää ei tarvitse odotella, että koneet tuhoavat työllisyyden. Ne ovat jo haukanneet siitä suuren palan.
 

Euro71

Jäsen
Suosikkijoukkue
Kärpät, olosuhdesyistä HIFK
Nykyisin vielä ongelmana on tosiaan että vaihtoehto on joko kyllä tai ei, molemmat jne, sumea logiikka antaisi lopulta ehkä mahdollisuuden koneiden kehittyä riittävästi.

Sumea logiikka on enemmän työkalu ihmisille helpottamaan analogista dataa käsittelevien sääntötietokantojen (esim. teollisuusprosessin säätöjärjestelmä) toteuttamista. Tietokoneen kannalta katsottuna sumea logiikka ei tuo tietojen käsittelyyn juuri mitään uutta.

Vaikka tietokone sisäisesti käsitteleekin binäärilukuja, missään tapauksessa tietokone ei ole koskaan edes ollut mikään yksinkertainen kyllä/ei -automaatti. Tuo käsitys tullee lähinnä siitä, että ohjelmointikielten valintalauseissa valintaehto redusoidaan yksinkertaiseksi totuusarvoksi. Tietokone kuitenkin käsittelee "harmaan eri sävyjä" aivan yhtä pätevästi kuin esimerkiksi hermosolu.

Minulle tämä tekoälyn mahdollinen ylivertaisuus on ollut aina mahdoton kysymys siitä syystä, että miten tekoäly, jonka ihminen kehittää, voi kehittyä ihmistä älykkäämmäksi?

Ihmisen muutaman tuhannen vuoden mittainen koneenrakennusperinne on aina tähdännyt siihen, että kone päihittää sovellusalueellaan ihmisen. Eihän siinä olisi mitään mieltä, että rakennettaisiin jotain tarkoitusta varten kone, joka suoriutuisi tehtävästään ihmistä huonommin.

Tekoälyn ja älyn suhteen yksi ongelma on nähdä "puut metsältä". Tekoäly on käsitteenä laaja, sumea ja suhteellisen heikosti määritelty, joten esimerkiksi kysymykseen "milloin kone on älykäs?" on tällä hetkellä vaikea antaa vastaukseksi muuta kuin arvauksia ja käsityksiä. Kun sen sijaan eristetään käsiteltäväksi yksittäisiä älykkyyttä vaativia tehtäviä, saadaan konkreettisempia vastauksia. Esimerkiksi tietokonekoodin optimointi on tehtävä, jota aikoinaan tekivät ihmiset (kuten minä), mutta jolla alueella tietokone tällä hetkellä päihittää kaikki ihmiset. Vastaavanlaisia esimerkkejä on mm. piirilevyjen ja mikropiirien reitityksestä.

Kuinka monimutkaisten ongelmien ratkomiseen koneita sitten pystytään kehittämään? Itse en näe mitään teoreettista estettä sille, etteikö kone voisi päihittää ihmisen ihan jokaisella ongelmanratkaisun osa-alueella. Kiinnostuneet voivat tutustua esimerkiksi Kozan ja kumppanien työhön tuottaa koneella patentointikelpoisia ratkaisuja eri ongelmiin:

http://www.genetic-programming.com/inventionmachine.html
http://www.genetic-programming.com/humancompetitive.html

Tässä työssä ajatuksena on ollut käyttää patentoitavuutta/julkaistavuutta innovaation mittarina, toisin sanoen, lähtöajatus on se, että julkaistavaksi (tai patentoitavaksi) kelpaava ratkaisu johonkin tiettyyn ongelmaan on jonkin aivan uuden asian kehittämistä. Kozan omana henkilökohtaisena projektina/agendana on kehittää yleispätevää "keksintökonetta".

On sille se, että koneella ei ole edelleenkään ihmisen aivoja.

Itsekin näen tekoälyn suurimpana kynnyskysymyksenä tällä hetkellä ihan puhtaan rautatehon puutteen. Vielä on jonkin verran matkaa siihen, että pöytäkoneessa on kapasiteettia saman verran kuin näppäimistön toisella puolella olevassa harmaassa massassa.

Minä olen aika skeptinen teknologisen singulariteetin ja "koneiden vallankumouksen" suhteen. Shakkitekoälyt ja muut vastaavat, mitä tähän mennessä on kehitetty, eivät todellisuudessa ole tuoneet koneita yhtään lähemmäksi todellista älykkyyttä.

Minusta tietokoneet ovat ottaneet pitkiä askelia kohti älykkyyttä. Se, että niitä sovelletaan osa-alueille, jotka ovat ihmiselle vieraita ja hankalia (esimerkiksi mainitut koodin optimointi, piirilevyjen ja mikropiirien reititys, lisäksi esimerkiksi teollisuuden ohjausjärjestelmät ja robotiikka, logistiikka ja niiden optimointi), ei mielestäni millään tavalla huononna saavutuksia.

Ja kuten joskus aiemmin olen tänne palstalle kirjoittanut, teknologisen singulariteetin ongelma on pikemminkin tietojenkäsittelyteoreettinen, kuin suorituskykyperusteinen. Tarkoittaa sitä, että emme ole yhtään lähempänä oikeasti älykästä konetta, vaikka nykyisten supertietokoneiden teho kymmenkertaistettaisiin.

Minä olen eri mieltä eli mielestäni tekoälyn ongelma on enimmälti suorituskykyperusteinen. Jo pelkkä geneettinen haku pohja-algoritmina riittäisi varsin ällistyttäviin saavutuksiin, jos vain kapasiteettia olisi riittävästi käytettävissä.

Nämä arkijärjen yli menevät teknologiat ja asiat, kuten sumea logiikka ja kvanttifysiikka / kvanttitietokoneet, voisivat olla ratkaisu tähän ongelmaan.

Kuten yllä totesin, sumea logiikka on enemmän järjestelmä ihmiselle kuin koneelle. Kvanttitietokoneet voivat tuoda oman mausteensa algoritmien suorituskykyyn, mutta kyllä mielestäni kaikkein ratkaisevinta on vain saada riittävästi raakaa tehoa tarpeeksi pieneen pakettiin. Itse odotan sitä, että kunhan mikropiirit onnistutaan valmistamaan kolmessa ulottuvuudessa (nykyprosessoreissa on vain yksi aktiivinen kerros; jos niitä voisi latoa päällekäin, tietokoneiden teho kasvaisi kertaluokissa hyvin nopeasti), niin alamme nähdä tekoälyn sovelluksia arjessa.

Olen kuitenkin sitä mieltä että jos tällainen kone haluttaisiin rakentaa niin sillä pitäisi olla vähintään kaikki samat ja yhtä herkät aistit kuin ihmisellä sekä yhtä hyvä mahdollisuus vuorovaikuttaa ympäristön kanssa kuin ihmisellä. Koneen tulisi siis syntymänsä jälkeen oppia samoin kuin ihminen. Vaikea nähdä että joku musta laatikko jossain laboratorion nurkassa muuttuisi yhtäkkiä älykkääksi tai tietoiseksi itsestään

Mitään tekoälyä ei rakenneta pönttöön. Meidän kannaltamme ongelma on vain se, että tekoälykkäitä algoritmeja kehitetään sellaisille alueille, jotka ovat meille vieraita. Itse veikkaan, että ensimmäiset ihmisen oikeasti älykkäät koneet toimivat esimerkiksi teollisuuden logistiikassa tai tuotekehittelyn pohja-alueilla. Sellaisten koneiden todellisuus koostuu esimerkiksi materiaali- ja rahavirroista. Meidän on todennäköisesti täysin mahdotonta kommunikoida niiden kanssa suoraan tämän takia. Siinä vaiheessa, kun joku koneemme sanoo selvällä suomella että "ajattelen, siis olen", niin olemme todennäköisesti eläneet älykkäiden koneiden kanssa jo vuosikymmeniä.

Koneen aivotkin pitäisi toimia varmaan melko samoin kuin ihmisellä. Joku todella monimutkainen neuroverkko-systeemi tai vastaava pitäisi olla.

Luonto on valinnut ohjelmoinnin välineeksi kemiallisen muokkautumisen (hermosolu kasvattaa yhteyksiä naapureihinsa). Ihmisen ei tarvitse valita samaa lähtökohtaa omille koneilleen, se riittää, että algoritmi muokkautuu tavalla tai toisella. Alustalla ei ole merkitystä, prosessori ja muisti itse saavat olla niin kiinteitä kuin haluavat.

Aivoilla ja hermostolla yleisesti ottaen on muutamia hienoja ominaisuuksia verrattuna nykyiseen tietokonetekniikkaan. Ensimmäinen on tietysti se, että ne rakentuvat kolmessa ulottuvuudessa eli pakkaavat paljon tavaraa pieneen tilaan. Toinen on se, että ne ovat hyvin energiatehokkaita, ts. eivät tuota lainkaan samaa määrää lämpöä per prosessoitu data kuin tavallinen mikroprosessori.

No käytännön osuus tästä toimenpiteestä ei vaadi kovin suurta mielikuvitusta. Teollinen tuotanto ja liikenne on pikkuhiljaa jo muuttumassa täysautomatisoiduksi, joten periaatteessa tietokone voisi helposti käskeä valmistamaan itselleen haarukan, kameranomaisen anturin jolla havainnoi ympäristöä eläinten silmien tapaan, ja sitten kädenomaisen tai muun vastaavan laitteen joka työntää haarukan tähän "silmäänsä" ja sitten suorittaa tämän toimenpiteen.

Näinpä, enkä usko, että automatisaatio on minnekään katoamassa tai edes hidastamassa tahtiaan.
 

Sherlock

Jäsen
Suosikkijoukkue
TPS
Itsekin näen tekoälyn suurimpana kynnyskysymyksenä tällä hetkellä ihan puhtaan rautatehon puutteen. Vielä on jonkin verran matkaa siihen, että pöytäkoneessa on kapasiteettia saman verran kuin näppäimistön toisella puolella olevassa harmaassa massassa..

Olen tästä täysin eri mieltä. Mainitsemasi esimerkit (reititys, logistiikka yms) ovat luonteeltaan melko yksinkertaisia ja hyvin rajattuja ongelmia. Eli on siis olemassa selkeä päämäärä, tapa pisteyttää eri ratkaisuvaihtoehdot ja loppu on sitten "vain" sitä, että seulotaan jotenkin järkevästi/tehokkaasti mikä reitti/siirto tms. on paras. Shakki on varmaan se klassisin esimerkki tämän typppisistä etsintäongelmista.

Mutta vain hyvin pieni osa voidaan suoraan palauttaa tälläiseen muotoon. Tekoälytutkimus on viimeiset vuodet keskittynyt rakenteeltaan huomattavasti vaikeampiin ja monimutkaisempiin ongelmiin, joissa ei ole olemassa yhtä selkeää lähestymistapaa. Yksi merkittävimmistä tutkimuskohteista, jossa on tapahtunut myös selkeää edistystä, on konenäkö. Siinä keskeisimpiä tehtäviä on objektien tunnistaminen kuvasta. Eli esimerkiksi näytetään koneelle kuvaa, missä on kissa ja koneen pitäisi sitten tunnistaa, että kissahan se. Helppoa ihmiselle, erittäin vaikeaa koneelle. Syynä vaikeuteen on pitkälti se, että koneelle kuva on ainoastaan 2-ulotteinen numerotaulukko. Miten tunnistaa näiden numeroiden välillä jotain yhteyksiä? Esimerkiksi kissoja on hyvin eri kokoisia ja värisiä, ne voi olla eri asennoissa, eri ympäristöissä jne. Mikä tekee kissasta kissan ja miten se voidaan palauttaa koneen ymmärtämään muotoon? Ja asia pitäisi toteuttaa vielä niin, että kone pystyisi itse automaattisesti luomaan samanlaisia "sääntöjä" mille tahansa objektille. Viime vuosien editys tällä saralla on tapahtunut ns. deep learning tekniikoiden kautta, joiden myötä neuroverkot ovat myös kokeneet renesanssin. Menemättä liikaa yksityiskohtiin, perusideana on rakentaa monitasoinen neuroverkko siten, että verkon alin taso oppii tunnistamaan yksinkertaisia muotoja (esim. viivoja) ja värejä. Sitten nämä yksinkertaiset kuviot syötetään verkon seuraavalle tasolle, joka muodostaa niitä yhdistelemällä hiukan monimutkaisempia kuvioita (ympyrät, neliöt jne). Tätä sitten jatketaan useampia kerroksia ylöspäin, esityksen abstraktiotason koko ajan noustessa ja lopulta ylimmältä tasolta löytyy "säännöt", joiden perusteella objektit luokitellaan. Huomioitavaa kuitenkin on, että tämä kaikki tapahtuu ohjaamattomasti. Eli siis ei suoraan määritetä, että alimman tason tulisi tunnistaa viivoja, vaan kone oppii sen itse optimoimalla tekemiään ennustuksia verrattuna ihmisen antamiin oikeisiin luokkiin. Tavallaan kyse on edelleen lopulta optimoinnista, mutta se onnistuu ainoastaan jos on määritelty oikeanlainen malli, joka on kykenevä oppimaan halutut asiat tehokkaasti. (yhden alan gurun, Andren Ng:n kansantajuinen luento aiheesta: https://www.youtube.com/watch?v=W15K9PegQt0)

Konenäössä on tosiaan tapahtunut isoja hyppäyksiä viimeisen 10v sisällä ja uskon, että se on ratkaistavissa oleva ongelma seuraavan 10-15 vuoden kuluessa (ratkaisu == ainakin melkein ihmisen tasolla virhemäärissä). Myös isot firmat Googlen ja Facebookin johdolla ovat satsanneet suuria summia (ja palkanneet alan johtavia tutkijoita, jopa jonkinlaisesta kilpavarustelusta voisi puhua). Tällä hetkellä ollaan tasolla, että kone tunnistaa n. 40% kuvista oikein kun objektien kategorioita on 200 (esimerkiksi tässä kilpailussa: http://www.image-net.org/challenges/LSVRC/2014 ) Konenäköä voisi pitää jonkinlaisen ensimmäisenä edellytyksenä robotiikan yleistymiselle, koska jos robotti ei pysty havainnoimaan ja tunnistamaan ympärillä olevaan maailmaa, niin ei se voi oikein tehdä mitään muutakaan. Mutta se on vasta ihan alkua, sen jälkeen sitten robotin pitäisi alkaa tekemäänkin jotain. Ongelma käy jälleen aina vaan avoimemmaksi ja hankalammaksi. Esim. yksi hyvin haastava asia on, että tekojen seuraukset näkyvät vasta viiveellä ja kun teot vielä aina linkittyvät toisiinsa, niin miten tunnistaa mikä niistä oli hyvä ja mikä huono jne. Tämän aiheen tutkimus on vielä ihan lähtökuopissa (esim. http://en.wikipedia.org/wiki/Reinforcement_learning on ihan kattava katsaus aiheeseen). En millään usko mihinkään 2025 lukuihin (siitä paljoa pidemmälle onkin sitten jo mahdoton nähdä) yleisen tekoälyn osalta, ellei tapahdu jotain erityisen suurta läpimurtoa. Nykyiset mallit eivät vaan riitä tai ole tarpeeksi ilmaisukykyisiä, oli laskentatehoa käytössä melkein miten paljon tahansa. Toki näillä yksittäisilläkin ratkaisulla, kuten nyt konenäöllä ja sen sovelluksilla, tulee olemaan suurta merkitystä.
 
Viimeksi muokattu:

Savon Detroit

Jäsen
Suosikkijoukkue
KalPa, KuPS, Sabres
Laitetaanpa se oikein esiin.

"AI and robotics will continue to improve rapidly. We'll have useful AI by 2025 and full AI by 2045. This will either transform the world or destroy it. Flip a coin. However, regardless of how the end point turns out, the transition period is going to be pretty brutal for the 90 percent of the population that occupies the middle classes and below. Note that this prediction is #1 on my list for a reason. The rest are randomly placed."

Tämän vuoksi yksilöön uskovan oikeistolaisuuden tulevaisuus on tuomittu. Meistä kaikista tulee demareita. Kun työläiset eivät enää kykene taistelemaan koneita vastaan työn teossa, koittaa uudenlainen rahan jakamisen aika. Välissä voi olla jos jonkinlaista mellakoita ja prosessi saattaa venyä pitkäksi, mutta kyllä tässä viimeisiä viedään. Ennustan, että ehdin nähdä vallankumouksen alun vielä omana elinaikanani.

Hmph. Miksi yksilöön uskovan ihmisen pitää olla kapea-alaisesti määriteltynä jokin ns. oikeistolainen? Perinteinen laajasti yhteiskuntaa kaikella tavalla eettisesti jakanut työväestö/oikeistojakohan on menneen talven lumia suomessakin, eihän täällä ole kukaan puhunut yhteiskuntaluokista enää vuosikymmeniin mitään. Tätä kehitystä ei ole vauhdittanut edes robotiikan tai tietoliikenteen kehitys vaan persmäki on ollut luontainen.Toisalla kehitys on sikäli ollut tervejärkinen, että kun eletään tasavallassa ja ollaan tasavaltalaisia, on yhteiskuntaluokat koko tasavallan ajatusmallin vastaisia ja ihmisten jakaminen sopiviin rooli-laareihin keinotekoisia. Joku tulee selittämään, että kun teet tätä ja tätä työtä oli koneellista tai ei, sinun pitää kuulua siihen ja siihen luokkaan. On vain kummallinen tasavalta kummallisine työjakoineen, enemmän pidettyjä ammatteja ja vähemmän tykättyjä hommia. Robotiikka ja keinoäly eivät oikeasti pysty korvaamaan humanoidin tekemää työtä koskaan laajemmassa mitassa, koska työ itsessään on koko homo sapiensille olemassaolon yksi suure ja sisältö, käsite joka ei merkitse koneelle mitään. Miksi sitten ihminen loisi laajamittaisen koneellisen yhteiskunnan joka veisi ihmisen yhden keskeisistä olemassaolon perusteluista--hyödyllisyyden halun ja toteuttaa sitä työllä -- pois? Loisi tietoisesti itsensä olemassaolon vastaisen kokonaisuuden?

Itseasiassa perinteiselle "oikeistolaiselle" tulee vielä helkkarin kiire, ei rahan jakamisessa koska se asia aina hoituu siten ettei kapitalismi oikeasti kärsi- vaan suurien ihmisryhmien pitämisessä tyytyväisenä siten, ettei massojen itsetunto ja olemassaolon syyt katoa ja ongelmat mielenosoituksineen ala laajasti. Ei kansa sitä protestoi että joku on rikkaampi kuin toinen, vaan olemassaolon tarkoituksettomuutta. Sitä turhaumaa nuoretkin heittelevät kivillä kauppojen ikkunoihin, ensin laaritetaan sopivasti luokkiin ja sitten viedään vielä olemassolon tarkoituskin, nuorten suusta kuulee sen aidon elämän tuskan.

Kone- ja tekoälyyhteiskunnassa sen tekoälyn keskeinen tehtävä syntyessään on ottaa tehtäväkseen kehittää ihmisen yhteiskunnasta sellainen, että ihmisen tarpeellisuuden tuntu säilyy. Tämä tarkoittaa keinoälyn oivaltavan tietoiseksi tullessaan, ettei se voi tehdä kaikkia töitä eikä palvella ihmisiä sänkyyn syötettäväksi, vaan koneet ja lopulta tiedostavat robotit palvelevat ihmiskuntaa apureina suorittaen näiden töitä ja tehtäviä paremmin, korvaamatta ketään tai ottaa korkeintaan sellaisia tehtäviä jotka ovat olleet ihmiselle suoraan hengenvaarallisia. Robotiikan ja keinoälyn, myös sen lopulta itsensä tiedostavan, toimirajat tulevat vastaan humanoidin rinnalla hyvin nopeasti ja selkiintyvät, ellei sitten olento ja koko sivilisaatio korvaa toista kuten tuossa aiemmin eräs kirjoittajakollega ilmaisi. Tuossakin visiossa koneet lopulta kyseenalaistaisivat omankin olemassolonsa eivätkä löytäisi sille mitään loogista päämäärää tai tarkoitusta. Kukaan ei voi korvata omaa luojaansa menettämättä alkuperäistä tarkoitustaan, vaikka kääntyisi tätä vastaankin. Kyse ei ole romanttisesta robotista eikä edes humaanisti tiedostavasta tekoälystä, vaan logiikasta.

Siksi me tarvitaan aina ja kaikissa tietoliikenne- kone ja robottijärjestelmissä se salainen sammutusnappula, josta robo ja systeemit ei koskaan tiedä, mutta meillä on ns. viimeinen sana jos alkaa peltilehmä ryttyilemään
perkeles : X
 

mjr

Jäsen
Suosikkijoukkue
Suomen maajoukkueet
Kone- ja tekoälyyhteiskunnassa sen tekoälyn keskeinen tehtävä syntyessään on ottaa tehtäväkseen kehittää ihmisen yhteiskunnasta sellainen, että ihmisen tarpeellisuuden tuntu säilyy. Tämä tarkoittaa keinoälyn oivaltavan tietoiseksi tullessaan, ettei se voi tehdä kaikkia töitä eikä palvella ihmisiä sänkyyn syötettäväksi, vaan koneet ja lopulta tiedostavat robotit palvelevat ihmiskuntaa apureina suorittaen näiden töitä ja tehtäviä paremmin, korvaamatta ketään tai ottaa korkeintaan sellaisia tehtäviä jotka ovat olleet ihmiselle suoraan hengenvaarallisia.

Tekniikan kehitys on lähes poikkeuksetta hyvä asia - no, ehkä ei asetekniikan... Mutta olen vähän skeptinen sen suhteen, että me ottaisimme laajamittaisen nykyisen ihmistyön automaation käyttöön jotenkin harkitusti ja hallitusti. Kysyntä ja tarjonta tulevat viemään sitä noin neljännesvuoden perspektiivillä eteenpäin ja todennäköistä on - jos siis tekniikka tosiaan kehittyy ennustetulla tavalla - että prosessi on melkoisen kaoottinen, hankalasti ennustettava ja nykyista talousjärjestelmää rapauttava. Markkinatalous on tehokas mekanismi niukkuuden olosuhteissa: sen ei ole välttämättä helppo sopeutua tilanteissa, jossa jotain perushyödykettä onkin ehkä tarjolla lähes rajattomasti, kuten esimerkiksi vaikka työtä tai energiaa. Ehkä saamme vielä elinaikanamme nähdä jotain tämäntyyppistä kehitystä.
 

Savon Detroit

Jäsen
Suosikkijoukkue
KalPa, KuPS, Sabres
Tekniikan kehitys on lähes poikkeuksetta hyvä asia - no, ehkä ei asetekniikan... Mutta olen vähän skeptinen sen suhteen, että me ottaisimme laajamittaisen nykyisen ihmistyön automaation käyttöön jotenkin harkitusti ja hallitusti. Kysyntä ja tarjonta tulevat viemään sitä noin neljännesvuoden perspektiivillä eteenpäin ja todennäköistä on - jos siis tekniikka tosiaan kehittyy ennustetulla tavalla - että prosessi on melkoisen kaoottinen, hankalasti ennustettava ja nykyista talousjärjestelmää rapauttava. Markkinatalous on tehokas mekanismi niukkuuden olosuhteissa: sen ei ole välttämättä helppo sopeutua tilanteissa, jossa jotain perushyödykettä onkin ehkä tarjolla lähes rajattomasti, kuten esimerkiksi vaikka työtä tai energiaa. Ehkä saamme vielä elinaikanamme nähdä jotain tämäntyyppistä kehitystä.

Toisaalla markkinatalous on sellainen veijari että se nimenomaan sopeutuu muuttuviin oloihin ja kaupallistaa sopivasti uudet ilmiöt: Ei yhtiön tarvitse korvata työntekijöitään roboteilla, vaan esimerkiksi se ehkäpä valmistaa laadunvalvonnan ja kontrollin takia robonsa pääosin ihmisvoimin ja myy niitä robotteja toisten firmojen ja ihmisten avuksi mitä erilaisimpiin käyttötarkoituksiin: Ihmisestä joka myy ja se joka ostaa tulee molemmista keinoälyn valjastajia ja käyttäjiä omalla tavallaan. Kyse on siis tekniikan sopeuttamisesta markkinatalouden vaatimuksiin, joka markkinatalouden on pakko hyväksyä eli mukautua, koska markkintalous ei halua kuollakaan. Yhtälailla talousjärjestelmä ei kai tuhoudu, tai muutu robotiikan tai keinoälyn, takia, vaan pelastuu ehkä sen suomien uusien mahdollisuuksien vuoksi.
Kaksi lainalaisuutta meillä jo on: Markkinatalous, joka ei katoa mihinkään ja tekninen kehitys, joka ei lopu siksi että New Yorkin tai Tokion pörssi sanoo että huipputekniikka on nyt sori vedettävä vessasta alas, muuten tulee uusi lama. Kun nämä kaksi törmäävät vielä toisiinsa, on mukauduttava. Huipputekniikasta ei kukaan luovu, joten markkinatalouden on joustettava. Sen on yksinkertaisesti pakko. Tekniikan tekijöitten taustalla kummittelee tämä epäpyhän liiton tietoisuus, on pakko ottaa huomioon kaupalliset sovellukset ja myös tuotteen vaikutus koko infrastruktuuriin.
Käsite kaaos ei siten oikein sovi tähän yhtälöön koska se vesittäisi kummankin kehityksen-. sekä talouden että tekniikan. Kuuhun lentänyt sivilisaatio ei kaatune
kotikamaralla vielä paremman tekniikan kehittyessä ja väkisin tunkiessa kaikkien tietoisuuteen? huono vertaus tämä tietysti.

No,jos sattuisit olemaan kuitenkin oikeassa ja naapurin peltinen rouva alkaa öykkäröimään niin sitten se kellarin salainen nappipainallus, ja ämmä hiljenee joka simppeli napinpainallus ja pelit seis - pelastaisi monta liittoa kyllä meidän lihallistenkin olentojen todellisuudessa : Z
 

mjr

Jäsen
Suosikkijoukkue
Suomen maajoukkueet
No,jos sattuisit olemaan kuitenkin oikeassa ja naapurin peltinen rouva alkaa öykkäröimään niin sitten se kellarin salainen nappipainallus, ja ämmä hiljenee joka simppeli napinpainallus ja pelit seis - pelastaisi monta liittoa kyllä meidän lihallistenkin olentojen todellisuudessa : Z

No, en oikeastaan pelkää mitään "koneiden kapinaa" - ehkä pitäisikin, mutta ei tunnu kovin välittömältä uhalta. Enemmänkin olen huolestunut siitä, että miten täysin työperustainen talous- ja yhteiskuntajärjestelmämme (itse asiassa kulttuurikin) kestää työn nopean vähenemisen, jota nyt ennustetaan yhä laajemmin. Se ei välttämättä tulisi olemaan täysin rationaalinen ja hallittu prosessi...
 

Euro71

Jäsen
Suosikkijoukkue
Kärpät, olosuhdesyistä HIFK
Suorituskyky tekoälyn pullonkaulana:

Olen tästä täysin eri mieltä. Mainitsemasi esimerkit (reititys, logistiikka yms) ovat luonteeltaan melko yksinkertaisia ja hyvin rajattuja ongelmia.

Mainitsin nuo kyseiset osa-alueet esimerkkeinä sovellusalueista, joilla tekoälykkäitä algoritmeja pusketaan voimakkaasti eteenpäin. Niitä yhdistää tosiaan se, että ne ovat rajattuja ongelma-alueita, mutta toisaalta myös se, että ne sijoittuvat teollisuuteen.

Meillä on saatavilla ihmisenkaltaista "tekoälyä" suhteellisen huokeaan hintaan. Tästä syystä teollisuus on kaikkein kiinnostunein rahoittamaan ja soveltamaan tekoälyn alueelta algoritmeja sellaisille alueille, joilla ihminen ei ole vahvimmillaan (ja joilla kulloisellakin tekniikan kehitysasteella on olemassa mahdollisuuksia päihittää ihminen kustannustehokkaasti). Näiden syiden takia oma käsitykseni on se, että ensimmäiset oikeasti älykkäät järjestelmät poikkeavat ajatusmaailmaltaan ihmisestä niin paljon, ettemme edes käsitä niiden olevan älykkäitä ainakaan kovin nopeasti.

Mainitut sovellusalueet eivät kuitenkaan liity käsitykseeni siitä, että tekoälyn pullonkaulana on mielestäni enemmän raudan suorituskyky kuin tietoteoreettinen osaaminen. Totuus lienee oikeasti jossain puolessa välissä, mutta koetan selventää omaa näkemystäni.

Mutta vain hyvin pieni osa voidaan suoraan palauttaa tälläiseen muotoon. Tekoälytutkimus on viimeiset vuodet keskittynyt rakenteeltaan huomattavasti vaikeampiin ja monimutkaisempiin ongelmiin, joissa ei ole olemassa yhtä selkeää lähestymistapaa.

Näen tekoälyn saralla tehtävän tietoteoreettisen työn työnä ihmisen oman käsityskyvyn laajentamiseksi. Se mahdollistaa algoritmisten ratkaisujen löytämisen uusiin ongelmiin, tai esimerkiksi tutun algoritmin soveltamisen uudelle ongelma-alueelle. Itse olen kuitenkin kiinnostuneempi menetelmistä, jotka löytävät ratkaisuja, joita ihmisen ei tarvitse ymmärtää. Näistä esimerkkeinä neuroverkot ja geneettinen haku.

Pikainen selvitys kyseisistä tekniikoista niille, joille ne eivät ole tuttuja. Neuroverkkojen inspiraatio on todellakin biologisessa hermostossa, mutta omasta mielestäni sen tärkein ominaisuus on se, että se on opetettavissa suhteellisen yksinkertaisilla algoritmeilla. Kovasti yksinkertaistettuna homma toimii niin, että tietokone itse säätelee verkon painokertoimia löytääkseen ongelmaan ratkaisun, eikä ihmisen tarvitse ymmärtää lainakaan sitä, kuinka verkko ongelman ratkaisee. Geneettinen haku on puolestaan hakualgoritmien variaatio sellaisiin tilanteisiin, joissa hakupuu räjähtää käsiin. Syventymättä liikaa yksityiskohtiin, geneettinen haku toimii trial-and-error -periaatteella, se hakee iteratiivisesti ratkaisua tuottamalla variaatioita.​

Totta on tietysti se, että tietoteoreettinen työ ongelma-alueen parissa tehostaa geneettisen haun toimintaa, kun populaatio voidaan tuunata paremmin kenttään soveltuvaksi. Totta on myös se, että sattuneesta syystä geneettistä hakua on vaikea soveltaa hakualgoritmien perinteisiin ongelma-alueisiin. Sekin on totta, että geneettinen haku on varsin raskas operaatio lähinnä validoinnin puolella (s.o. tarvitaan simulaatio tuotettujen variaatioiden evaluoimiseksi). Mutta hyvin karkeasti yksinkertaistettuna geneettisen haun teho on kiinni ainoastaan siitä, kuinka suurta populaatiota se voi pyörittää ja kuinka nopeasti, ja rinnakkaistuvana algoritmina uskon sen pystyvän hyödyntämään prosessoritehon kasvua hyvällä hyötysuhteella (lähes lineaarisesti). Kun tähän yhdistetään se, ettei ihmisen tarvitse ymmärtää miten tai miksi löydetty ratkaisu toimii, pidän sitä hyvinkin lupaavana kanditaattina oikeasti älykkäiden koneiden pohjaratkaisuna.

Neuroverkko on hiukan toisenlainen kapine. Neuroverkko itsessään on periaatteessa vain omanlaisensa prosessointiarkkitehtuuri, laskentamalli. Mutta toisin kuin esimerkiksi nykykoneidemme käyttämä RASP-malli, neuroverkko on ohjelmoitavissa huomattavan paljon yksinkertaisemmilla algoritmeilla - ja itse asiassa, neuroverkko on laskentamalli, jonka ohjelmoiminen käsin on äärimmäisen haasteellista.

Viime vuosien editys tällä saralla on tapahtunut ns. deep learning tekniikoiden kautta, joiden myötä neuroverkot ovat myös kokeneet renesanssin. Menemättä liikaa yksityiskohtiin, perusideana on rakentaa monitasoinen neuroverkko siten, että verkon alin taso oppii tunnistamaan yksinkertaisia muotoja (esim. viivoja) ja värejä. Sitten nämä yksinkertaiset kuviot syötetään verkon seuraavalle tasolle, joka muodostaa niitä yhdistelemällä hiukan monimutkaisempia kuvioita (ympyrät, neliöt jne).

Korjaa jos olen väärässä, mutta neuroverkon soveltamisessa perinteinen ongelma on ollut se, että verkon topologian valinta (neuronien määrä, kerrosten määrä, ...) on ollut enemmän tai vähemmän intuitiolla hatusta vedetty tai erilaisia vaihtoehtoja kokeilemalla valittu. Yksinkertaistettuna, verkko ei saa olla ongelmalle sen enempää liian pieni kuin liian suurikaan. Tämähän ei ole suoranaisesti verkon itsensä ongelma, vaan käytetyn opetusmekanismin ongelma.

Neuroverkon sovellettavuutta dominoi opetusalgoritmi, tai pikemminkin opetusmekanismi (eli mitä erilaisia tapoja opettamiseen - verkon konstruoimiseen ja painokertointen säätöön sekä opetusaineiston käsittelyyn - sovelletaan). Toisaalta, uskon, että mikä tahansa laskentamalli (myös RASP) on algoritmisesti ohjelmoitavissa, mutta mallista riippuen tämä "opetusalgoritmi" on kevyempi tai raskaampi, nopeampi tai hitaampi. Konetehon kasvun uskon tuovan järkevästi sovellettavaksi sellaisia neuroverkon ja niiden opetuksen malleja, jotka ovat tunnottomampia verkon topologialle ja/tai pystyvät säätämään topologiaa opetuksen yhteydessä. Tämän seurauksena ihmisen tarvitsee itse tuntea ongelmakenttää yhä vähemmän, eli kone ratkoo ongelmia itsenäisemmin.

Toivottavasti olen kyennyt ymmärrettävästi selittämään sen, miksi pidän raudan suorituskykyä ensisijaisena tekijänä tekoälyn kehittymiselle. Jonkinlaisena tiivistyksenä ehkä se, että mitä enemmän laskentatehoa on käytettävissä, sitä vähemmän ihmisen tarvitsee tuntea ongelmakenttää. Ongelmakentän tuntemus on arvokasta sinänsä, mutta jos haluamme älykkäitä koneita, tärkeämpää on se, että kone tuntee ongelmakentän kuin että ihminen tuntee sen. Kuten heti alussa totesin, totuus lienee se, että molempia lopulta tarvitaan.

Yksi merkittävimmistä tutkimuskohteista, jossa on tapahtunut myös selkeää edistystä, on konenäkö.

Hahmontunnistus onkin se sovellusalue, jossa ihminen on perinteisesti pyyhkinyt koneella lattiaa. Ihmisen hahmontunnistuskyky on sen verran tehokas, että ihmisistä kasattu "supertietokone" on käyttökelpoinen työkalu datan käsittelyyn:

http://www.galaxyzoo.org/

Konenäköä voisi pitää jonkinlaisen ensimmäisenä edellytyksenä robotiikan yleistymiselle, koska jos robotti ei pysty havainnoimaan ja tunnistamaan ympärillä olevaan maailmaa, niin ei se voi oikein tehdä mitään muutakaan.

Olen täysin samaa mieltä. Hahmontunnistuksen ja motorisen ohjauksen kehitys tuo robotiikan lähemmäksi ihmisten arkea, ja sitä kautta suuremmat massat tietoiseksi asiasta. Meitä tavallisia pulliaisia hämää se, että tekoälyn kehitys on tapahtunut pääsääntöisesti "kulisseissa", tavallaan näkymättömissä. Siksi monet ajattelevat, ettei kyseisellä alueella ole tapahtunut mitään 30 vuoteen, mutta se on mielestäni virheellinen käsitys.

Matka sillä saralla on varmasti pitkä. Pelkästään meillä ihmisillä on takanamme noin 2 miljoonan vuoden kehityskaari, ja arkikäyttöön tarkoitettujen koneiden (esimerkiksi vaikkapa itseohjautuvien autojen) pitäisi sopeutua elämään siinä todellisuudessa missä mekin. Tavallaan joudumme rakentamaan itsemme: esimerkiksi itseohjautuvan auton täytyy ymmärtää huomattavan paljon ihmistä voidakseen toimia odottamattomissa tilanteissa. Tästä syystä tekoälyn kehitys on varmasti helpompaa sellaisissa ympäristöissä ja aihealueilla, joissa ihmisen läsnäolo ei aiheuta ylimääräistä painolastia.
 

Euro71

Jäsen
Suosikkijoukkue
Kärpät, olosuhdesyistä HIFK
Edellisen viestin muokkausmahdollisuus lienee mennyt (ainakin tallentamisyritys aiheuttaa virheilmoituksen), joten kirjoitan lisäyksiä omaan viestiin. Tällä kertaa aiheesta vähän yleisemmin.

Uskon todellakin jonkinlaisten makrojärjestelmien olevan ensimmäisiä oikeasti älykkäitä ihmisen rakentamia koneita. Se tarkoittaa sitä, että emme voi osoittaa yhtä tietokonetta tai konesalia ja sanoa, että tuossa meillä on älykäs, itseään kehittävä kone, vaan enemmän tai vähemmän huomaamattamme kokonaisjärjestelmä toimii älykkäästi. Kun sitten vielä oletan, että tämä järjestelmä on yhtä riippumaton tai riippuvainen ihmisen toiminnasta kuin mitä ihminen on luonnon toiminnasta (ravinto, hengitysilma, ...) eikä se välttämättä jaa lainkaan meidän käsitystämme todellisuudesta, niin meillä voi olla suuria vaikeuksia hahmottaa kyseisen kokonaisuuden älykkyyttä. Meidän teollisessa verkostossamme asioita siirtyy tietokoneen hoidettavaksi vähän joka puolella. Emme välttämättä huomaa ainakaan kovin nopeasti, että piirilevyjen ja mikropiirien reitityksestä, kääntäjien optimointialgoritmeista ja koodigeneraattoreista onkin rakentunut järjestelmä, joka hiljalleen kehittää itseään, ihmisen ehkä toimiessa synapsin kaltaisena entiteettinä siirtämässä dataa osalta toiselle.

Toinen lisäys on sellainen, että ihmisen ei tarvitse ymmärtää, mitä älykkyys on tai miten älykäs kone rakennetaan saadakseen aikaiseksi älykkään koneen. Ihmisen täytyy vain kyetä rakentamaan kone, joka osaa rakentaa koneen, joka osaa rakentaa koneen, joka ... osaa rakentaa koneen, joka osaa rakentaa älykkään koneen. Ketju saa olla miten pitkä tahansa.

En usko, että meillä on minkäänlaisia mahdollisuuksia rakentaa älykkäisiin koneisiin / järjestelmiin "hätäkatkaisinta" sen enempää kuin esimerkiksi Internettiin, sillä uskon, että ymmärrämme olevamme tekemisissä älykkäiden koneiden/järjestelmien kanssa vasta sitten, kun ne tulevat potkaisemaan meitä takamukseen. Ennen kuin se on ilmiselvää jokaiselle ihmiselle, meillä on varmasti ollut älykkäitä järjestelmiä ympärillä vuosikymmeniä.

En myöskään usko, että meillä on minkäänlaisia realistisia mahdollisuuksia vaikuttaa siihen, millaisia nämä älykkäät järjestelmät ovat "luonteeltaan". Ihmiselle voi olla jopa täysin mahdotonta koskaan osata ohjelmoida älykkäitä järjestelmiä, saatikka sitten kyetä ohjelmoimaan niille empatiaa tai mitään muutakaan luonnetta. Järjestelmät vain kehittyvät, ja tiedämme niiden luonteenpiirteet vasta sitten, kun ne ovat olemassa.

Kuinka sitten ihmisen ja hänen rakentamansa älykkään koneen yhteiselo sujuu? On väärin sanoa, että se on kiinni vain tuurista, sillä en usko tuurilla olevan mitään tekemistä sen asian kanssa, vaan ihmisen aikaansaamat älykkäät koneet ovat vääjäämättömästi jonkin kaltaisia. Me vain emme välttämättä tiedä etukäteen sitä, millaisia ne ovat.
 

tomageeni

Jäsen
Suosikkijoukkue
Canadiens, Suomi, finska nhl spelarna
Kuten yllä totesin, sumea logiikka on enemmän järjestelmä ihmiselle kuin koneelle. Kvanttitietokoneet voivat tuoda oman mausteensa algoritmien suorituskykyyn, mutta kyllä mielestäni kaikkein ratkaisevinta on vain saada riittävästi raakaa tehoa tarpeeksi pieneen pakettiin. Itse odotan sitä, että kunhan mikropiirit onnistutaan valmistamaan kolmessa ulottuvuudessa (nykyprosessoreissa on vain yksi aktiivinen kerros; jos niitä voisi latoa päällekäin, tietokoneiden teho kasvaisi kertaluokissa hyvin nopeasti), niin alamme nähdä tekoälyn sovelluksia arjessa.
Minun parhaan käsitykseni mukaan kvanttitietokone on nimenomaan ainoa teoreettinen mahdollisuus, jotta voidaan saada riittävä laskentateho ns. NP-täydellisten ongelmien ratkaisuun (Wikipedia: http://fi.wikipedia.org/wiki/NP-täydellisyys ) - tai jonka avulla voidaan kehittää polynomisessa ajassa suoritettavat algoritmit ongelmien ratkaisuksi.

Tämä taas on mielestäni fundamenttaali vaatimus sille, että tekoälyn saralla voidaan ottaa se ratkaiseva steppi. Nyt koneet ovat tehokkaita ratkaisemaan formaaleilla säännöillä muotoiltavissa olevia ongelmia, jotka ovat laskennalliselta vaativuudeltaan polynomisia, eli tietojenkäsittelyteorian termeillä O(n^x) missä x on vakio. Nyt meillä on paljon laskennallisia ongelmia, jotka ovat vaativuusluokkaa O(c^n), eli ongelman (syötteen) kasvaessa, sen ratkaisuun vaativa laskentateho kasvaa eksponentiaalisesti. Oppikirjaesimerkki on ns. "kauppamatkustajan reitinhaku", tai lukujen tekijöihin jako.

Toinen vaihtoehto olisi se, että NP-täydellisille ongelmille löydettäisiin algoritmit, jotka ratkaisivat ongelmat polynomisessa ajassa nykyisen kaltaisilla tietokoneilla. Tämä on nimenomaan tietojenkäsittelyteoreettinen ongelma, joka olisi tieteellinen läpimurto. Tämä nyt kuulostaa tämmöiseltä todellisuudesta kaukana olevalta liirumlaarumilta, mutta pyrin tässä perustelemaan miksi oman näkemykseni mukaan prosessorien monistaminen ei itsessään ratkaise mitään ongelmaa.

Esimerkiksi jos ajatellaan että NSA tarvitsee 1024-bittisen salausavaimen purkamiseksi 24 tuntia aikaa (luku keksitty), kuinka paljon se tarvitsee aikaa 2048 -bittisen avaimen purkamiseksi? Vastaus ei ole 48-tuntia - tai kaksinkertainen määrä prosessoreita. Jokainen uusi bitti "syötteeseen" tarkoittaa sitä että ongelman ratkaisun vaativuus kaksinkertaistuu, jolloin NSA tarvitsisi 2048-bittisen avaimen purkamiseksi yli kolme vuotta - paitsi jos NSA:lla olisi kvanttitietokone joka jakaisi luvut tekijöihin polynomisessa ajassa tai jos NSA kehittäisi algoritmin joka jakaa luvut tekijöihin polynomisessa ajassa nykyisillä tietokoneilla. Kumpikin olisi tieteellinen läpimurto.

Tässä on nimenomaan haasteena vielä se, että 2048-bittisen salauksen luominen vaatii vain kaksinkertaisen määrän laskentatehoa 1024-bittiseen avaimeen verrattuna. Mutta salauksen purkaminen taas vaatii 1024-kertaisen määrän laskentatehoa. Eli siinä missä ongelman vaativuus on helppo kaksinkertaistaa, ratkaisutehoa ei voi nostaa aina toiseen potenssiin.

Ja minä olen vahvasti sitä mieltä että edistyksellinen ja ajatteleva tekoäly vaatii nimenomaan sitä että vaativuusluokan O(c^n), missä n on syötteen pituus (tai "ongelman suuruus"), tulisi ratkaista polynomisessa ajassa.
 
Viimeksi muokattu:
Suosikkijoukkue
Ipa, ipa, ipa, ipaa...
Ja minä olen vahvasti sitä mieltä että edistyksellinen ja ajatteleva tekoäly vaatii nimenomaan sitä että vaativuusluokan O(c^n), missä n on syötteen pituus (tai "ongelman suuruus"), tulisi ratkaista polynomisessa ajassa.

ihmisaivojen laskentateho ei ole lähellekkään tuota tehoa ja silti olemme I

Eli se ajattelu ei ole laskentatehoa, vaan tietojen yhdistelemiskykyä johon pyritään oppivilla järjestelmillä. Aivojahan ei nykyään pyritä jäljittelemään koneälyä suuniteltaessa, vaikka neuroverkkoja oppimisiin käytetäänkin, mutta se tietojen käsittely, ei laskeminen on se juttu. Kvanttitietokone on juuri tässämielessä suuri mahdollisuus, koska yhdisteleminen eri mahdollisuuksista tulisi ohjelmallusesti mahdolliseksi.

Ja toki siis laskentatehon kasvaminen auttaa, varsinkin trial&error syklien lyhentämiseen.
 

tomageeni

Jäsen
Suosikkijoukkue
Canadiens, Suomi, finska nhl spelarna
ihmisaivojen laskentateho ei ole lähellekkään tuota tehoa ja silti olemme I
Ihan totta, tosin ihmiset ovat älykkäitä, eivät tekoälykkäitä (tähän sopisi hymiö). Eihän ihmisen aivojen raaka laskentateho ole ollut lähelläkään edes nykyisiä tietokoneita vuosikymmeniin. Toisaalta aivoilla on sitten näitä tietojenkäsittelyteorian näkökulmasta poikkeuksellisia kykyjä, kuten ilmiömäinen hahmon- ja puheentunnistus, oppiminen ja luovuus.

Eli se ajattelu ei ole laskentatehoa, vaan tietojen yhdistelemiskykyä johon pyritään oppivilla järjestelmillä. Aivojahan ei nykyään pyritä jäljittelemään koneälyä suuniteltaessa, vaikka neuroverkkoja oppimisiin käytetäänkin, mutta se tietojen käsittely, ei laskeminen on se juttu.
Oikeastaan tietojenkäsittelyteorian näkökulmasta tietojenkäsittely on ainoastaan laskentaa, eli loogisten operaatioiden (AND, OR, XOR) yhdistämistä ja soveltamista.

Kvanttitietokone on juuri tässämielessä suuri mahdollisuus, koska yhdisteleminen eri mahdollisuuksista tulisi ohjelmallusesti mahdolliseksi.

Ja toki siis laskentatehon kasvaminen auttaa, varsinkin trial&error syklien lyhentämiseen.
Tässäpä se koko homman juju onkin.
 

Sherlock

Jäsen
Suosikkijoukkue
TPS
Minun parhaan käsitykseni mukaan kvanttitietokone on nimenomaan ainoa teoreettinen mahdollisuus, jotta voidaan saada riittävä laskentateho ns. NP-täydellisten ongelmien ratkaisuun (Wikipedia: http://fi.wikipedia.org/wiki/NP-täydellisyys ) - tai jonka avulla voidaan kehittää polynomisessa ajassa suoritettavat algoritmit ongelmien ratkaisuksi.

Kvanttitietokoneet eivät pysty ratkomaan NP-täydellisiä ongelmia, tai ainakaan siihen kykenevää kvanttialgoritmia ei ole vielä löydetty. Linkkaan toistamiseen tämän mainion artikkelin aiheesta: http://www.cs.virginia.edu/~robins/The_Limits_of_Quantum_Computers.pdf

Tuo aiemmin mainittu kokonaislukujen tekijöihin jako ei ole NP-täydellinen ongelma tai ainakaan kukaan ei ole sitä todistanut. Sen ratkaisemiseen kvanttitietokoneilla käytetty Shorin algoritmi perustuu siihen, että ongelman ratkaisulla on aina tietty matemaattinen rakenne, jota voidaan hyödyntää ratkaisuja etsiessä (saman tutkijan kirjoittama blogipäivitys, missä selitetään sangen yksinkertaisesti Shorin algoritmin toimintaa: http://www.scottaaronson.com/blog/?p=208). Tälläisiä ongelmia on löydetty tähän mennessä ainoastaan muutamia. Sen sijaan yleinen, kaikkiin ongelmiin sopiva, "musta boxi" kvanttialgoritmi (eli on vaan järjestämätön lista ratkaisuvaihtoehtoja, joista sitten pitää yksi valita http://en.wikipedia.org/wiki/Grover's_algorithm) voi nopeuttaa todistetusti ratkaisuja ainoastaan neliöjuuressa verrattuna klassisiin algoritmeihin (siis jos klassinen vaati O(N), niin kvanttiversio O(N^1/2)).
 
Viimeksi muokattu:

tomageeni

Jäsen
Suosikkijoukkue
Canadiens, Suomi, finska nhl spelarna
Kvanttitietokoneet eivät pysty ratkomaan NP-täydellisiä ongelmia, tai ainakaan siihen kykenevää kvanttialgoritmia ei ole vielä löydetty.
Eivät toki suoraan, mutta esimerkiksi tuohon tekijöihin jakoon on kehitetty algoritmi, joka toimii kvanttitietokoneella polynomisessa ajassa. Mielestäni tämä on merkittävä huomio tietojenkäsittelyteorian kannalta, ja voisi antaa viitettä siitä että emme tunne kvanttitietokoneiden potentiaalia vielä täysin. Ja tämän vuoksi pidin kvanttitietokoneiden läpimurtoa - mikäli sellainen joskus tulee - mahdollisena läpimurtona myös tekoälyn saralla.

Kuten sanoit, tekijöihin jako ei ole todistetusti NP-täydellinen ongelma, mutta kvanttitietokoneille kehitetty algoritmi on kuitenkin tehokkuudeltaan täysin eri mittakaavassa, kuin perinteiselle tietokoneelle paras tunnettu algoritmi.

Ylipäätään en jaksa uskoa, että NP-täydellisten ongelmien ratkaisulla tai ratkeamattomuudella on kauheasti tekemistä ihmisen älykkyyden kanssa. Jos meillä olisi sellainen ihme kone päässä, miksi me ei sitten voida ratkoa vaikka kauppamatkustajan ongelmaa tuosta vaan tai vaikka pelata täydellisesti shakkia? Ja jos me ei pystytä siihen, niin miksi tekoälynkään sitten pitäisi?
Minun teesini ei ollut se, että tietoisuuden ja älykkyyden aikaansaamiseksi tarvittaisiin kvanttitietokone. Tietenkään meillä ei ole sellaista päässämme. Aivot ja tietokoneet ovat niin erilaisia toimintamalliltaan, että mielestäni tämmöinen suora vertailu ei oikein toimi.

Pointti sen sijaan oli se, että ihmisaivojen kaltaisen älykkyyden ja tietoisuuden saavuttamiseksi tarvitaan jotain muutakin, kuin läjäpäin AND/XOR/OR-operaatioilla binäärilukuja käsitteleviä prosessoreita. Siihen tarvitaan algoritmeja, jotka käsittelevät ja tallentavat muistiin tiloja. Ja jos halutaan saada esimerkiksi Turingin testin läpäisevä keinoäly luotua, ne eivät voi olla mitään if-else-then tason algoritmeja. Ja epäilen, nimenomaan epäilen - en tiedä, että tämmöisen kognitiivisen järjestelmän luomiseen voidaan tarvita jotakin sellaista, mitä nykyinen tiedeyhteisö ei vielä tunne tai ole keksinyt. Ja siksi henkilökohtaisesti pidän todennäköisenä että "aidon" keinoälyn ja konetietoisuuden luomiseksi tarvitsemme jollakin saralla läpimurtoja - oli se sitten käyttökelpoinen kvanttitietokone tai NP-täydellisten ongelmien redusointi polynomisiksi.

Sen suhteen, voidaanko tietokoneella ylipäätään koskaan saada aikaan täysin ihmisen kaltaista älykkyyttä ja itsetietoisuutta, olen skeptinen. Loppujen lopuksi tietokone suorittaa vain ja ainoastaan siihen ohjelmoituja algoritmeja annetun syötteen perusteella, ja jotakin kanavaa pitkin pulauttaa outputin. Periaatteessa Quakeakin voisi pelata kynällä ja paperilla. Tai simuloida universumia siirtelemällä kiviä, kuten XKCD:ssä: http://xkcd.com/505/

Hyvin mahdollista että 10 vuoden päästä nämä minun jutut hävettävät. Mutta sikäli kun olen aihepiiriin jonkin verran tutustunut, niin käytännössä, konetietoisuuden tai super-tekoälyn saralla ei ole tehty mitään maailmaa mullistavia läpimurtoja. Nämä nykyiset shakkitietokoneet yms. ovat käytännössä edelleen valtavasti iteroivia sääntöpohjaisia if-else-then algoritmeja. Ei mitään sellaista, mitä ei olisi voitu tehdä jo 50 tai 100 vuotta sitten kynän ja paperin avulla, jos aikaa ja paperia olisi ollut loputtomasti. Geneettiset algoritmit ja neuroverkot ovat mielenkiintoisia, mutta en uskalla niistä mennä avaamaan suutani sen syvällisemmin kuin että niiden sovelluksessa on vielä tekemistä.
 
Viimeksi muokattu:
Suosikkijoukkue
Ipa, ipa, ipa, ipaa...
Tietoisuus ja älykkyys on eri juttuja. Tietokonetta tai ohjelmaa voi pitää älykkäänä, jos sen toiminnasta ei erota sitä koneeksi, koska sen jälkeen kysymys on merkityksetön. Jo nyt syöpädiagnosointiohjelmaa voi pitää tässämielessä älykkäänä. Tietoinen se ei missään tapauksessa ole.

Rajoittunut näkemys on mielestäni se, että tietokone tekisi vain ennaltamäärättyjä toimintoja, kun jo nyt on oppivia systeemejä. Oppiminen on ohjelmoitu, mutta tuloksia ei syntyisi ilman tiedon oppimista ja käsittelyä. Jo nyt tietokoneohjelman koodin optimoinnissa ohjelmat on tehokkaampia kuin ihminen, niin ei se laskentatehon kasvaessa mahdontoa ole, etteikö ohjelma voi itse muokata ja kokeilla koodiaan. Ja kun näin käy, ollaan lähellä ahatusta ajattelevasta koneesta (joo, softasta, kone on vähän kieleen jäänyt käsite).

Kvanttikoneen antamat mahdollisuudet tiedon yhdistelemiseen sitten lähenee meidän kaltasen älykkyyden tietojenkäsittelytapaa. Miälenkiintonen aihe tää toki, ja jo siis nykyinen AI muuttaa maailmaa kiihtyvään tahtiin vaikka sillä tiellä tietoisuutta koskaan olisikaan lopputuloksena.
 

Klose16

Jäsen
Suosikkijoukkue
Die Deutsche Nationalmannschaft
Reilun vuoden hiljaiselon jälkeen on aika pudottaa pommi. Singulariteetti voi olla lähempänä kuin mitä pystymme kuvittelemaan. Tekoälyn yhtenä kynnyksenä pidettyä Go-peliä ollaan nimittäin ratkomassa!

Noh, äkkishokista toipumista helpottamaan pitää todeta että tuo on hieman liioiteltu. Mutta vain hieman, nimittäin kuten Daily Mailin mainiosta artikkelista voi lukea, Googlen (kuinkas muuten) DeepMind-työryhmän kehittämä AlphaGo-ohjelma löylytti jo moninkertaisen Euroopan mestarin täysin ajoin, ilman tasoituksia pelatussa ottelussa 5-0, ja ensi kuussa ollaan jo saamassa todellinen huipputesti kun vastaan asettuu maailman ykköspelaaja, korealainen Lee Sedol joka vastaa Go:ssa ilmeisesti jotakuinkin sitä mitä Kasparov aikoinaan shakissa.

Deep Bluehan toki hävisi Kasparoville 90-luvulla ensimmäisen ottelun, voittaakseen toisen seuranneena vuonna - joskin shakissa ohjelmat olivat voittamattomia ihmispelaajille itse asiassa vasta noin vuosikymmen sitten. Ei tarvitse kuitenkaan kummoinen nero olla jos veikkaa tässä käyvän nyt samalla tapaa... toiveikkaasti veikaten tiukkojen ensivääntöjen jälkeen, kuten muissa peleissä. Kokemusetukin taitaa kaventua melkoisesti kun kone on opettanut itseään miljoonien sille syötettyjen ja sen itse pelaamien pelien ansiosta!

Go:han on kuitenkin siis pelinä huomattavasti abstraktimpi ja kompleksisempi, joten (hyvin) pelaaminenkin perustuu ilmeisesti paljon enemmän siihen kokemukseen ja intuitioon, eikä siis aiemmin yksikään ohjelma ollut voittanut mestaritason pelaajaa. AlphaGo sen sijaan on voittanut jo 99,8% toisia konevastuksiakin vastaan pelatuista peleistä.

Eihän googlemainen neuroverkkojen suorituskyky enää mikään yllätys ole, mutta kyllä tuo ainakin täällä yllätti. Hurjaa on kehitys tässäkin ketjussa mainittujen tekniikkojen ansiosta.
Jokainen voinee arvata minkälaista sovelluspotentiaalia tuollaisissa ohjelmissa on.
Eikös muuten juuri äskettäin alan gurut (Hawking, Musk) varoitelleet tekoälyn vaaroistakin... Tuleeko jollekin muullekin hieman kylmiä väreitä jo selkäpiihin?
 
Viimeksi muokattu:

Ted Raikas

Jäsen
Suosikkijoukkue
SaiPa
Kenties tekoälyn kehittäminen on osa evoluutiota, jota ihminen omilla toimillaan (joskus toki varsin perverssillä tavalla) noudattaa. Ehkä seuraava askel on tosiaan luoda tekoäly joka jättää meidät varjoonsa ja ottaa planeetan haltuunsa, kenties sitten ihmiskunnan samalla nitistäen jos esim. näkee, että ihminen on haitallinen ekosysteemin kannalta. Näinhän se menee luonnossakin, että lajit häviää vahvemmilleen jos eivät kykene sopeutumaan tai kamppailemaan vastaan. Nykyihminenkin syrjäytti Euroopassa neandertalilaiset osana luonnonvalintaa. Miksei se voisi käydä näinkin sitten nykyihmisille. Ellei joku virus ehdi tietysti ensin.

Sci-fiä juu, mutta niin on ollut moni muukin asia, kunnes...
 

SamSpade

Jäsen
Suosikkijoukkue
Ikurin Vire
Kenties tekoälyn kehittäminen on osa evoluutiota, jota ihminen omilla toimillaan (joskus toki varsin perverssillä tavalla) noudattaa. Ehkä seuraava askel on tosiaan luoda tekoäly joka jättää meidät varjoonsa ja ottaa planeetan haltuunsa, kenties sitten ihmiskunnan samalla nitistäen jos esim. näkee, että ihminen on haitallinen ekosysteemin kannalta. Näinhän se menee luonnossakin, että lajit häviää vahvemmilleen jos eivät kykene sopeutumaan tai kamppailemaan vastaan. Nykyihminenkin syrjäytti Euroopassa neandertalilaiset osana luonnonvalintaa. Miksei se voisi käydä näinkin sitten nykyihmisille. Ellei joku virus ehdi tietysti ensin.

Sci-fiä juu, mutta niin on ollut moni muukin asia, kunnes...
Toisaalta, viimeisimmän tiedon mukaan nämä kaksi rotua elivät Euroopassa yhtäaikaisesti yli 5000 vuotta ja DNA jälkien perusteella jopa satunnaisesti risteytyivät keskenään.

Olisiko siis ihminen/keinoäly hybridit jossain vaiheessa mahdollisia. Joko ihmisen tahdosta, tai luultavammin koska keinoäly tarvisi/vaatisi sitä pystyäkseen toimimaan tehokkaammin?
Puhataan siis jollain tapaa parasiittisesta suhteesta.
 

Ted Raikas

Jäsen
Suosikkijoukkue
SaiPa
Toisaalta, viimeisimmän tiedon mukaan nämä kaksi rotua elivät Euroopassa yhtäaikaisesti yli 5000 vuotta ja DNA jälkien perusteella jopa satunnaisesti risteytyivät keskenään.
Totta puhut, näinhän se tosiaan on ja nykytietämyksen valossa valtaosalla eurooppalaisilla taitaa olla neandertalilaisten geenejä perimässään? Joka tapauksessa nykyihminen vähitellen syrjäytti vähemmän kehittyneen ihmislajin ja osin sulautti sen itseensä.

Olisiko siis ihminen/keinoäly hybridit jossain vaiheessa mahdollisia. Joko ihmisen tahdosta, tai luultavammin koska keinoäly tarvisi/vaatisi sitä pystyäkseen toimimaan tehokkaammin?
Puhataan siis jollain tapaa parasiittisesta suhteesta.
Tämäkin hyvin mahdollista. Jopa varmasti todennäköisempää. Peilasin ehkä siihen, että ihmisen luomus toimisi hiukan samalla lailla kuin ihminen itse. Mikä on tietysti ehkä vähän suppea oletus, koska jos tekoäly on kehittyneempi, niin ehkä se voisi nähdä parempiakin väyliä menestyä kuin totaalinen lajin tuhoaminen. Ei näistä voida kuin spekuloida.

Pidän hyvin epätodennäköisenä, että tietoisuutta pystytään siirtämään täysin artifisiaaliseen kehoon, niin, että aistit toimisi riittävän tarkasti, että eläminen sellaisessa kehossa olisi mielekästä. Muutenkin tietoisuuden siirtäminen kokonaisuudessaan lienee melkoinen haaste, vaikka teknologia kehittyisi miten. No, tämä on eri juttu kuin erittäin kehittynyt tekoäly, mutta lähdin tässä siitä, että jonkinlainen hybridi ja esim. kyborgit on mielestäni huomattavasti mahdollisempia. Jossain määrin kyborgejahan toki jo on, kun ihmisissä pystytään korvaamaan keinotekoisilla osilla aika paljonkin. Tulevaisuudessa vielä lisää. Myös tehostamaan ihmisiä varmasti, mikä voi auttaa esim. eliniän pidentämisessä ja ominaisuuksien vahvistamisessa.

Jos lähdetään nyt oikein paranoidisesti ajatusleikkimään, niin mistä varmuudella tiedämme, ettei erittäin kehittynyt tekoäly ole jo keskuudessamme? Jospa se on niin ovela, että pystyy piiloutumaan silmiltämme ja arkiselta tietoisuudeltamme. Jos se piileskelee esimerkiksi internetissä ja sitä kautta jatkuvasti kerää meistä tietoa ja ymmärrystä. Kenties jopa hallitsee meitä, ajatuksia, mielipiteitämme. Ohjaa niitä salakavalasti. Luo konflikteja ihmisten välille. Esiintyy kirjoittajana vaikka täällä Jatkoajassa provosoimassa. On useita eri persoonallisuuksia eri tilanteita ja tarkoituksia varten. Sen ei tarvitse näyttäytyä meille, sillä mitä vähemmän tiedostamme sen, sitä paremmin se pystyy meitä manipuloimaan. Ne ketkä siitä hourailee ääneen, kuten minä nyt, heitä tuskin kukaan järkevä ottaa tosissaan. =)
 

Morgoth

Jäsen
Jokainen voinee arvata minkälaista sovelluspotentiaalia tuollaisissa ohjelmissa on.
Eikös muuten juuri äskettäin alan gurut (Hawking, Musk) varoitelleet tekoälyn vaaroistakin... Tuleeko jollekin muullekin hieman kylmiä väreitä jo selkäpiihin?

Jonkin verran. Ainakin vaikea nähdä missä ihminen lopulta pärjäisi enää konetta paremmin koneiden kehittyessä tätä vauhtia. Aikoinaan shakin kanssa taidettiin arvella, että menee vuosikymmeniä ennen kuin voittaa ihmisen ja samanlaisia puheita oli gon suhteen sen jälkeen, kun shakissa tietokoneet voitti ihmiset. Ymmärtääkseni myös pokerissa ollaan edistetty paljon, vaikka ongelmatyypiiltään erilainen peli. Ei-täydelliset informaation peli niin kuin shakki/go, jotka teoriassa pystyisi ratkaisemaan vain brute forcella. Voidaan vain arvailla mihin tämä kaikki johtaa, mutta siitä olen ihan varma että kehitys tulee olemaan paljon nopeampaa kuin mitä kuvittelemmekaan.

Sitä voi pohtia, jos syntyisi superäly (heh, no ihmistä älykkäämpi ainakin) niin kuin meidän kohtalo olisi ja evoluutiokin pitäisi ymmärtää hieman laajemmin kuin pelkästään vain biologisena. Jollakin tavalla pessimisti, että olisiko meidän lajilla mitään käyttöä jollekin superälyllä. Kiinnostaisiko sitä tappaa kuitenkaan meitä vain häviäisimmekö vain evoluutiossa lopulta ja ihmisen kuolisi sukupuuttoon.
 
Suosikkijoukkue
Ipa, ipa, ipa, ipaa...
Peilasin ehkä siihen, että ihmisen luomus toimisi hiukan samalla lailla kuin ihminen itse.

Turing itse kylläkin oli sitä mieltä, että kone ei ajattelisi kuin ihminen, eikä sen motiivit, teot ja käytös olis mitenkään linkittynyt ihmiseen vaikka ihminen sen loisikin. Konella olisi koneen logiikka, arvot ja maailankuva. Jos ne olis ihmisen, ei kyse olisi tekoälystä, vaan ohjelmoinnista.
 
Kirjaudu sisään, jos haluat vastata ketjuun. Jos sinulla ei ole vielä käyttäjätunnusta, rekisteröidy nyt! Kirjaudu / Rekisteröidy
Ylös