Parlamenttikirjasto

tiistai 25. syyskuuta 2007

Laiskaa läsnäoloa?

Koskettelin tässä blogissa taannoin informaation litistymisen ilmiötä blogitiedon laadun arvioinnin ja RSS-syötteiden lukuohjelmien kannalta. Kenties hieman moralisoiva argumenttini oli, että vaikka RSS on kätevä ja nopea teknologia, se houkuttaa meidät tarkastelemaan grafiikasta, identiteetistä ja tekijyydestä riisuttua syötevirtaa, kollektivisoi tietoa ja rapauttaa lähdekritiikkiä.

RSS-syötteet ovat varhainen esimerkki informaatioympäristömme tulevista muutoksista. Itsenäinen tiedonhankinta on vähenemässä, räätälöidyn ja entistä kontekstiherkemmän informaation vastaanotto lisääntymässä.


Tämän suuntaisesta kehityksestä puhuu informaatioarkkitehti Peter Morville kiinnostavassa teoksessaan Ambient Findability (ks. saatavuus Selmassa). Morville povaa, että tulevassa älykkään läsnäinformaation yhteiskunnassa yksilö voi löytää miltei kenet tahansa tai minkä tiedon tahansa ajasta ja paikasta riippumatta.

Henkilökohtaisten digitaalisten assistenttien lisäksi myös esineet ja huonekalut alkavat Morvillen mukaan tulevaisuudessa viestiä meille. Tiedot työmatkan ruuhkatilanteesta näkyvät auton tuulilasinäytöllä moottoria startattaessa. Säätiedotus tulee aamulla kylpyhuoneen peiliin. Akateemisen kirjakaupan alennuskuponki saapuu mobiililaitteelle joka kerta, kun laitteen käyttäjä kävelee pitkin Pohjoisesplanadia.

Jos RSS-syötteet ovat samanaikaisesti käteviä ja ongelmallisia, vielä hankalampia voivat olla syötevirtoja älykkäämmät läsnäinformaation teknologiat. Uumoilen, että ne tulevat tarjoamaan meille pehmeän ja kulmattoman informaatioympäristön, jossa on mukava lillua ja jossa tietoa ei tarvitse itse hakea, vaan se liihottaa kuin valmiiksi paistettu pyy laiskan kitaan.

Tyydymmekö älykkään läsnäinformaation yhteiskunnassa siihen, mikä on lähinnä ja välittömimmin saatavilla? Tulemmeko yhä ponnettomammiksi kustannuksia ja tiedonhankintavaivaa edellyttävän laatuinformaation jäljittämisessä?

Itseäni on aina ärsyttänyt, kun "älykäs" sovellus yrittää arvata tarpeeni ja reagoida niihin kontekstiherkästi. Toisinaan olen joutunut tappelemaan jopa Wordin virheenkorjaustoiminnon kanssa, kun se on väkisin yrittänyt oikoa tekstiäni. Office-ohjelmistojen käytössä neuvovaa tekopirteää klemmarikaveria en siedä lainkaan.

Jos älykkään läsnäinformaation yhteiskunta toteutuu, tavoittaako kriittinen ja tärkeä tieto meidät? Vai joudummeko epätäsmälliseen viestipommitukseen, joka sisältää enemmän huteja kuin osumia?

Läsnäinformaation ja sen käyttäjien älykkyyden tasosta riippuu, lisääntyykö infoähky tulevaisuudessa vai väheneekö se.

Kimmo Tuominen

9 kommenttia:

Tero Heiskanen kirjoitti...

Mielenkiintoinen kirjavinkki, kiitos. Teen tutkimustyötä tämän aiheen parissa.

"Tyydymmekö älykkään läsnäinformaation yhteiskunnassa siihen, mikä on lähinnä ja välittömimmin saatavilla? Tulemmeko yhä ponnettomammiksi kustannuksia ja tiedonhankintavaivaa edellyttävän laatuinformaation jäljittämisessä?"

En näkisi, että tässä tapahtuu oleellista muutosta. Eikös voida nykyhetkeäkin ajatella noin: Otetaan se tieto mikä telkkarista tai paikallisesta sanomalehdestä saadaan, eikä tehdä vaikeampaa tiedonhankintaa. En oikein usko, että ihmisen tiedonhankintakäyttäytyminen on oleellisesti riippuvainen saatavan tiedon määrästä. Se otetaan mikä helposti saadaan. Jos saadaan helposti paljon tietoa niin otetaan enemmän vastaan kuin on aikaisemmin otettu.

"Office-ohjelmistojen käytössä neuvovaa tekopirteää klemmarikaveria en siedä lainkaan."

Ei siedä kukaan muukaan. Officen klemmaria ei kannata sekoittaa henkilökohtaiseen digitaaliseen agenttiin. Niillä on kovin vähän tekemistä toistensa kanssa.

Henkilökohtainen digitaalinen agentti on ominaisuuksiltaan jotain mitä emme ole vielä nähneet. Se pystyy myös vastaamaan tilanteeseen jossa käyttäjä meinaa laiskistua tiedonhankinnassaan.

"Jos älykkään läsnäinformaation yhteiskunta toteutuu, tavoittaako kriittinen ja tärkeä tieto meidät? Vai joudummeko epätäsmälliseen viestipommitukseen, joka sisältää enemmän huteja kuin osumia?"

Näissä tilanteissa myös henkilökohtainen digitaalinen agentti toimii, eli suodattaa tietovirroista ne oleelliset käyttäjälle ja tarjoaa myös yhteyden tärkeään tietoon. Allekirjoittaneen blogista löytyy hieman lisää agentti-asiaa.

Kirjaston blogi-toimitus kirjoitti...

Tero, kiitos perusteellisesta kommentista. Mukavaa saada tietää aihetta tutkivan ihmisen näkemys tiedonhaku- ja suodatusagentteihin.

Olet aivan oikeassa: mediaympäristön muutokset eivät vaikuta siihen, että ihmiset noudattavat tiedonhankinnassaan yleensä vähimmän vaivan periaatetta. Se mitä "vähin vaiva" on, saattaa kuitenkin muuttua mediaympäristön kehityksen myötä. Ennen netin yleistymistä täytyi mennä kirjastoon painettujen julkaistujen äärelle. Nyt kirjastoväki on huolissaan siitä, että painettuja julkaisuja ei tunnu enää olemassakaan osalle käyttäjistä, vaikka niissä oleva tieto on vähintään yhtä laadukasta kuin digitaalisistakin dokumenteista löytyvä tieto.

Tulevaisuudessa "vähin vaiva" voi merkitä sitä, mikä yksilölle saapuu ns. push-mekanismien avulla. Jopa hakukoneiden tai kirjastotietokantojen käyttäminen voi olla liian vaivalloista, jos käyttäjä tai hänen agenttinsa on sitä mieltä, että aiheesta on jo kerätty riittävästi tietoa. Riskinä on edelleen se, että laadukasta ja kenties kaikkein relevanteinta tietoa jää löytymättä...

Nuo puolittain kriittiset ja puolittain toiveikkaat blogiviestiin kirjatut kommenttini perustuvat paitsi Morvilleen, myös Adam Greenfieldin Everyware-kirjaan. Kumpikin mainituista kirjoittajista on yht'aikaa hieman skeptinen mutta myös innostunut asiasta.

Osaatko sinä tutkijana sanoa, milloin noin erinomaisesti toimivat filtteröinti- ja tiedonhakuagentit tulevat tuotantokäyttöön?

Kimmo

Tero Heiskanen kirjoitti...

Kiitos kuuluu sinulle mielenkiintoisesta kirjoituksesta. On aina hienoa löytää tulevaisuuden tietoteknologian käytöstä kiinnostuneita.

"milloin noin erinomaisesti toimivat filtteröinti- ja tiedonhakuagentit tulevat tuotantokäyttöön?"

Erinomaisesti toimivia agentteja ei ole minun tietääkseni edes vielä tiedemiesten puolesta millään tasolla määritelty. Scifistä löytyy esimerkkejä, mutta en tunne yhtään fiktiivistä agenttiakaan, joka toimisi erinomaisesti.
En tiedä mitä Morville kertoo agenteista, mutta nähdäkseni tutkimus on menossa siinä vaiheessa, että nähdään yksittäisiä elämäntilanteita, joissa agentti voisi auttaa ja tiedetään miten, mutta kokonaisvaltaista mallia agentin toiminnalle ja ihmisen ja agentin vuorovaikutukselle ei vielä ole (teknisen toteutuksen sivuutan tässä). Itse väitöskirjatyössäni pohdin juuri näitä kysymyksiä.

Tällaisen tietoagentin toiminta nivoutuu erittäin laajalle ja avaa potentiaalisesti aivan mullistavia mahdollisuuksia (ja myös uhkia/haasteita) yksilön tasolla sekä yhteiskunnallisesti. Perinteinen näkemys tietoteknologia toiminnasta ja roolista on erittäin suppea ja yksipuolinen. Tämä näkemys joudutaan muuttamaan täysin tietoagenttien tultua tai siis jotta tietoagenteille voi syntyä käyttökulttuuria. Yhden artikkelin olemme tästä aiheesta (avustavan agentin esittely) julkaisseet: http://tinyurl.com/ysn3td

Olen erikoistunut arvailemaan vuosia milloin mitäkin tapahtuu teknologian käytön osalta tulevaisuudessa, niin voin tähänkin jotain heittää.

Kysymys oli "milloin noin erinomaisesti toimivat filtteröinti- ja tiedonhakuagentit tulevat tuotantokäyttöön". Tarvitaan ainakin kolme asiaa:
- Iso askel semanttisen webin suuntaan, jotta agentille saadaan tarvittavan kaltaista älykkyyttä (tietoa siitä mikä tieto on relevanttia). Verkossa liikkuvan tiedon pitää siis sisältää tieto tiedon luonteesta.
- Tietoyhteiskunnan tiedonkäytön pelisääntöjen uudelleen muotouminen. Siis kenellä on pääsy mihinkäkin tietoon (kansalainen, viranomainen, organisaatiot)
- Tietoteknologian käyttökulttuurin merkittävä muuttuminen. Käyttäjän pitää mieltää agentti erittäin luotettavana tieto-oliona.
-> Sanoisin, että näissä tapahtuu näkyvää muutosta 5-8 vuodessa, jolloin early-adopterit saattavat käyttä agentteja merkittävässä roolissa elämässään. Tavallinen tallaaja sitten 10-15 vuoden päästä suuressa osassa arkitoimintojaan. Nämä siis puhtaasti heittoja, ilman tieteellisiä perusteita.

Kirjaston blogi-toimitus kirjoitti...

Luin tutkimusryhmänne artikkelin: mielenkiintoinen teksti. Perusidean (tietoteknologian on tuettava ihmisten toimintakäytäntöjä ja voimaannutettava heitä arkielämässään) allekirjoitan oitis.

Luottamuksen muodostumisen kannalta on olennaista, että agentti seuraa isäntänsä toimintaa ja osaa sen perusteella tehdä oikeita johtopäätöksiä. Agentin rooli ei saa olla häiritsevä, vaan nimenomaan toimintaa tukeva. Muuten se kytketään nopeasti pois päältä.

Kun agentit ja ihmiset tekevät yhteistoimintaa, tarvitaan läpinäkyviä ja (inhimillisen) käyttäjän määriteltävissä olevia tietojen luovuttamis- ja käsittelysääntöjä. Muussa tapauksessa yksityisyys on vaarassa ja agentin/agenttien luotettavuus kärsii. (Oletan, että tulevaisuudessa agentit tekevät yhteistyötä myös toistensa kanssa, ihan niin kuin ihmiset nykyään hyödyntävät ryhmävoimaa verkossa.)

Myös filtteröinnin on oltava läpinäkyvää. Blokkausohjelmat eivät tällä hetkellä toimi kovin hyvin, eikä ole oikein, että filtteröintisääntöjä laaditaan sillä tavoin, että ne jäävät käyttäjälle mustaksi laatikoksi. Vaikka filtteröintialgoritmien toiminta voi olla mutkikastakin, agentin luotettavuuden kannalta on olennaista, että käyttäjä pääsee halutessaan myös eksplisiittisiä sääntöjä määrittelemällä vaikuttamaan intressi- ja toimintaprofiiliensa muotoutumiseen. Kaikkein haitallisinta agentin uskottavuuden kannalta on, jos käyttäjästä alkaa tuntua, että hänen ulottumattomillaan olevaan mustaan laatikkoon on kätketty kaupallisia, poliittisia tai uskonnollisia pyyteitä.

Puhuit semanttisen metadatan lisääntymisestä yhtenä agenttien kehittymisen ehtona. Metadata lisääntyy vain jos sen tuottaminen on riittävän helppoa ja mutkatonta, mielellään puoliautomaattista ja esim. kieliteknologiaa hyödyntävää. Myös metadatan on oltava luotettavaa, jotta agentti toimisi tarkoituksenmukaisesti, eli metadatan laatu ja autenttisuus on voitava jollain keinolla tarkistaa neutraalin tahon ylläpitämästä tietovarannosta.

Itse olen näitä kysymyksiä pohtinut vähän toisesta näkökulmasta kirjassani "Tiedon partaalla: kuinka hallita informaatiotulvaa" (BTJ, 2006). Eduskunnassa agentit ovat askarruttaneet jo jonkin aikaa: Päivikki Karhulan toimittama teos "Agentit tietotyön tukena" ilmestyi Eduskunnan kirjaston julkaisusarjassa vuonna 2001.

Tero Heiskanen kirjoitti...

"Agentin rooli ei saa olla häiritsevä, vaan nimenomaan toimintaa tukeva. Muuten se kytketään nopeasti pois päältä."

Täsmälleen näin.

"Kun agentit ja ihmiset tekevät yhteistoimintaa, tarvitaan läpinäkyviä ja (inhimillisen) käyttäjän määriteltävissä olevia tietojen luovuttamis- ja käsittelysääntöjä."

Näin juuri. Nämä säännöt tulevat olemaan keskeisessä roolissa tietoyhteiskunnan kehityksessä.

"...agentit tekevät yhteistyötä myös toistensa kanssa, ihan niin kuin ihmiset nykyään hyödyntävät ryhmävoimaa verkossa"

Kyllä, agenttiverkot korvaavat tavallaan webin roolin tiedonvälityksessä.

"Myös filtteröinnin on oltava läpinäkyvää...Kaikkein haitallisinta agentin uskottavuuden kannalta on, jos käyttäjästä alkaa tuntua, että hänen ulottumattomillaan olevaan mustaan laatikkoon on kätketty kaupallisia, poliittisia tai uskonnollisia pyyteitä."

Kyllä, nämä määrittelyt kuuluvat tietoyhteiskunnan teknologian käytön perusteisiin.

"Metadata lisääntyy vain jos sen tuottaminen on riittävän helppoa ja mutkatonta, mielellään puoliautomaattista ja esim. kieliteknologiaa hyödyntävää."

Metadatan tuottamisen helppous ja palkitsevuus ovat juuri ne haasteet.

"Myös metadatan on oltava luotettavaa, jotta agentti toimisi tarkoituksenmukaisesti, eli metadatan laatu ja autenttisuus on voitava jollain keinolla tarkistaa neutraalin tahon ylläpitämästä tietovarannosta."

Tästä en saa ihan varmuudella kiinni, mutta lähestyt varmaan kysymystä, että kuka ylläpitää tietovarantoja ja kenellä on niihin pääsy, jotka ovat ehkä ne tärkeimmät kysymykset. Kuka istuu viimeisimpänä tietokasan päällä? Viranomainen, kansalaiset, yritykset?

Laitan kirjasi lukujonoon ja odotan mielenkiinnolla jatkoa näille aiheille.

Kirjaston blogi-toimitus kirjoitti...
Kirjoittaja on poistanut tämän kommentin.
Kirjaston blogi-toimitus kirjoitti...

"Myös metadatan on oltava luotettavaa, jotta agentti toimisi tarkoituksenmukaisesti, eli metadatan laatu ja autenttisuus on voitava jollain keinolla tarkistaa neutraalin tahon ylläpitämästä tietovarannosta."

Koitan vielä selventää tekstiäni:

Mietin lähinnä sitä, että metadataa on ennenkin käytetty spämmäystarkoituksiin ja esim.
hakukoneiden indeksointisovellusten harhauttamiseen. Agentin tulisi toimia ja tehdä päätelmiään mahdollisimman luotettavan metadatan varassa, jotta sitä ei esim. hämättäisi ostoksille väärään paikkaan.

Verkkosivustojen ja metadatan autenttisuuden arviointi on olennaista: agentin on kyettävä tarkistamaan, että metadataväittämien esittäjä on identifioitu oikein ja että häntä/tätä pidetään luotettavana.

Ehkä sivuihin liitetyssä metadatassa pitäisi esittää luotettavuustodisteita? Jotta tällaisten takeiden esittäminen onnistuisi kätevästi, tarvitsemme metadataformaatin – yhteisesti sovitun ja kontrolloidun kielen – jonka avulla voidaan ilmaista muun muassa sivuston tai dokumentin laatuun, luotettavuuteen, sivuston laatijan institutionaalisiin kytköksiin ja intresseihin (esimerkiksi sponsoreihin) sekä dokumentin tarkoitukseen (esimerkiksi mainostus, uskonnollis- tai poliittissävytteinen viestintä) liittyviä asioita. Tarvitsemme kenties myös metadatan ja sen tuottajien autenttisuuden, eheyden ja luotettavuuden takaamisen mekanismeja, kuten digitaalisesti allekirjoitettuja sertifikaatteja?
Metadataa tulisi voida hakea useasta paikasta ja sitä tulisi pystyä vaihtamaan ja kierrättämään mahdollisimman turvallisesti.

Kimmo

Tero Heiskanen kirjoitti...

No nyt selkeni. Tämä on todellakin erittäin oleellinen kysymys ja jäänyt ainakin itselläni hieman vähemmälle huomiolle.

"agentin on kyettävä tarkistamaan, että metadataväittämien esittäjä on identifioitu oikein ja että häntä/tätä pidetään luotettavana."

Tässä ollaan tekeillä olevan väitöskirjani rajauksen sisällä selkeästi ja olen kiitollinen kommenteista tähän aiheeseen. Jos joku tietää lähetältä liippaavia lähteitä niin niistä olisin myös kiitollinen.

"metadataformaatin – yhteisesti sovitun ja kontrolloidun kielen – jonka avulla voidaan ilmaista muun muassa sivuston tai dokumentin laatuun, luotettavuuteen, sivuston laatijan institutionaalisiin kytköksiin ja intresseihin (esimerkiksi sponsoreihin) sekä dokumentin tarkoitukseen (esimerkiksi mainostus, uskonnollis- tai poliittissävytteinen viestintä) liittyviä asioita."

Tällainen tarvitaan ja tämän näkisin olevan iso osa internetin kehitystä ja semanttisen webin kehittymisen kanssa tämä on myös paljon sidoksissa. Tällaisen metadatakielen soisi olevan semanttista tai siis merkityksellistä, niin että konekin pystyy sen merkityksiä käsittelemään.

"Tarvitsemme kenties myös metadatan ja sen tuottajien autenttisuuden, eheyden ja luotettavuuden takaamisen mekanismeja, kuten digitaalisesti allekirjoitettuja sertifikaatteja?
Metadataa tulisi voida hakea useasta paikasta ja sitä tulisi pystyä vaihtamaan ja kierrättämään mahdollisimman turvallisesti."

Tästä tarpeesta olisin samaa mieltä. Näkisin äkkiseltään, että ratkaisun etsiminen kannattaa suunnata myös "tunnettujen" agenttien väliseen viestimiseen ja jonkinlaiseen sumeaan päättelyyn täysin luotettavien sertifikaattien lisäksi.
Tilanteissa, joissa henkilökohtaista agenttia lähestytään käyttäjälle relevantin tiedon kanssa, niin tiedon lähettäjän luotettavuus voitaisiin tarkistaa läheisten agenttien (ystävien, naapureiden, viranomaisten agenttien kautta). Periaattena siis, että metadatan lähde on luotettava, jos lähteen historia tunnetaan ja luotettavuus varmennetaan luotettujen kontaktien kautta.

Teetkö Kimmo näiden aiheiden kanssa aktiivisesti jotain tällä hetkellä (tai tekeekö joku muu)? Mielelläni pohdiskelisin näitä asioita yhteistyönä laajemminkin.

Kirjaston blogi-toimitus kirjoitti...

Tero, väitöskirjasi aihe on todella kiinnostava. Oma tutkimustyöni on vähän jäissä, mutta olen kyllä jatkuvasti kiinnostunut siitä, kuinka digitaalisille dokumenteille luodaan lisää kontekstitietoa. Koitan kirjoittaa tästä aiheesta blogiin lähiaikoina.

Aihepiiriin liittyvää kirjallisuutta voisi löytyä "web of trust" -fraasihaulla.

Clifford Lynchin tekstit voisivat olla sinulle myös relevantteja (suuri osa Lynchin julkaisuista löytyy kokotekstinä osoitteesta http://www.cni.org/staff/clifford_publications.html).

Itseäni on inspiroinut erityisesti hänen varhaisempi tuotantonsa:

Clifford A. Lynch, "When Documents Deceive: Trust and Provenance as New Factors for Information Retrieval in a Tangled Web," (PDF) Journal of the American Society for Information Science 52:1 (January 2001),pp.12-17.

Clifford A. Lynch, "Authenticity and Integrity in theDigital Environment: An Exploratory Analysis of the Central Role of Trust," Authenticity in a Digital Environment (Washington, DC: Council on Library and Information Resources, 2000), pp 32-50.

Toinen relevantti kirjoittaja voisi olla David Levy, joka parhaillaan toimii proffana Seattlen Information Schoolissa. Hän on pohdiskellut mielenkiintoisesti mm. digitaalisten dokumenttien autenttisuuskysymyksiä.

Jos sinulla Tero on aihetta sivuavia kirjallisuusvinkkejä, vastaanottaisin niitä mielelläni.

Kimmo