Terveisiä Tableau Conference Europe 2019 -tapahtumasta – minne Tableau on menossa?

19.06.2019 Business Intelligence, Tiedon visualisointi

Tapahtuman kynnyksellä saatiinkin isoja uutisia, kun 10. päivä kesäkuuta Tableau ilmoitti Salesforcen ostavan koko yhtiön muhkealla n. 16 miljardilla dollarilla. Kilpailijoiden, analyytikkojen ja muiden alaa seuraavien kirjoituksien perusteella kauppa on ollut yllätys monelle. Kilpailijat näyttävät hehkuttavan yhdestä suusta, kuinka kaupan myötä Tableaun fokus katoaa ja heille koittavat kissan päivät. Analyytikot taas miettivät, mitä hyötyä Salesforce-kaupasta saa, jos CRM:n ja visuaalisen analytiikan ostajat ovat eri henkilöitä?

Niin tai näin, odotukset tapahtumaa kohtaan yrityskaupan myötä toki kasvoivat. Toiveena oli tietenkin, että Tableau kertoisi siitä, mitä tulevaisuudessa tapahtuu ja mitkä ovat sen suunnitelmat yhdessä Salesforcen kanssa.

CEO Selipsky katsoo tulevaan

Ensimmäistä kertaa Euroopan tapahtuman avauspuheenvuorossa vieraili hieman yllättäenkin Tableaun CEO Adam Selipsky. Tämän tarkoituksena oli selvästikin vastata Salesforce-kauppaan liittyviin kysymyksiin. Selipsky kertoi, että Tableau pysyy omana brändinä ja tuotteena nyt ja jatkossa. Mielenkiintoista nähdä, mitä tulevaisuus tuo tullessaan ja mitä vuoden parin sisällä tapahtuu asian tiimoilta.

Selipsky maalaili mahdollisia yrityskaupan tulevaisuuden synergioita mm. seuraavasti:

  1. Tableau sisäänrakennetuksi Salesforcen tuotteisiin
  2. Salesforcen tuotteista ML- ja AI-kyvykkyyksiä Tableaun tuotteisiin
  3. Salesforcen viime vuonna ostaman Mulesoftin-lähdejärjestelmän connectorit Tableau-tuotteisiin (Mulesoftissa niitä enemmän kuin Tableaussa tällä hetkellä)
  4. Tiivis yhteistyö myynnissä, ristiinmyynti ja yhteiset asiakaskäynnit

Selipsky myös kertoi osuudessaan ensimmäisen uuden julkaisun: Tableau Blueprint. Kyseessä on käytännössä dokumentaatio mallista, jolla organisaatiosta on mahdollista rakentaa tiedolla ohjautuva. Kyseinen malli on ollut meillä kumppaneilla jo jonkin aikaa käytössä, mutta nyt se julkaistaan kaikille. Kyseessä on siis käytännössä kokoelma parhaita käytäntöjä ja erilaisia malleja, joilla datakulttuuria on mahdollista muuttaa siihen suuntaan, että tietoa hyödynnettäisiin enemmän ja laajemmin organisaation sisällä. Kokemukseni perusteella Blueprint soveltuu parhaiten isohkoille yrityksille, mutta kyllä sieltä hyviä osia on poimittavissa jokaisen organisaation käyttöön. Lisäksi kannattaa huomioida, ettei mikään estä sen käyttöä myös muiden teknologioiden kanssa – Blueprint ei ole millään tavalla teknologiariippuvainen.

Avauspuheenvuoro päättyi perinteiseen tykitykseen Tableaun teknisistä toiminnollisuuksista. Luonnollisesti mukana oli myös hehkutusta kaikesta, mitä viime vuonna ja edellisissä versioissa on saatu aikaan, ja lisäksi puhuttiin tietenkin myös tulevaisuudesta. Seuraavat alueet ovat tällä hetkellä Tableaun tuotekehityksen prioriteetit: For everyone, At scale ja Trusted data.

For everyone

Tableaun tavoitteena on tuoda työkalut kaikille organisaatioiden työntekijöille siten, että dataa olisi mahdollista hyödyntää myös erittäin matalalla teknisellä osaamisen tasolla ja tehdä sen avulla päivittäin parempia päätöksiä.

Tähän tarkoitukseen on jo aikaisemmin julkistettu ”Ask data” eli toiminnallisuus NLP (Natural Language Processing), jossa Google-tyyppisesti kysytään Tableaulta kysymyksiä, joihin se vastaa parhaaksi näkemillään graafeilla. Ominaisuus on kehittynyt erittäin paljon, mutta matkaa on vielä paljon jäljellä siihen, että suuri osa organisaatioista ottaisi sen käyttöönsä. Toistaiseksi Ask Data toimii vain englannin kielellä, mutta lähiaikoina on tulossa lisää tuettuja kieliä tarjolle. Suomen kieltä saamme varmaan vielä odottaa jonkin aikaa 😉

Tapahtumassa julkistettiin myös hyvin mielenkiintoinen uusi toiminnallisuus ”Explain data”, joka mahdollistaa aivan uuden tavan hyödyntää tietoa Tableaussa. Ominaisuus on melko pitkälle samanlainen, joka on jo tuttu Power BI:stä (Näytä merkitykselliset asiat), Qlik Sensestä (Insight Advisor) ja uudesta Cognos Analyticsistä (Insights, Assistant), mutta tietenkin pienellä Tableau-twistillä.

Käytännössä ”Explain data” mahdollistaa sen, että Tableaun visualisoinnissa (raportti, dashboard, jne.) voi valita yksittäisen datapisteen sen taustoittamiseksi. Esimerkiksi voi valita yrityksen kustannusten selkeän piikin yhtenä kuukautena ja klikata sitä, minkä jälkeen Tableaun ML/AI-moottori miettii hetken ja esittää valistuneen arvauksen siitä, miksi piikki esiintyy kyseisenä kuukautena. Moottorissa on selkeästi tiettyjä käyttötapauksia, joita se haistelee, esim. korrelaatioita eri dimensioiden kautta (outlinerit, extreme values jne.). Periaatteessa on siis kyse niistä perusasioista, joita valistunut analyytikkokin datasta kaivaa. Havainnoistaan toiminnallisuus muodostaa myös graafit, jotka voi sellaisenaan ottaa ihan normaalisti Tableaussa analyysiin ja jatkaa niiden työstämistä.

Toki tällainen toiminnallisuus tuo myös tiettyjä haasteita. Jos datassa ei esimerkiksi oikeasti ole niitä tietoja, jotka ilmiön taustalla ovat, niin Tableau ei luonnollisestikaan lähde itse niitä etsimään tietovarastosta. Samat rajoitukset koskevat tietysti myös muiden tuotteiden vastaavia ominaisuuksia. Tällainen ”tukiäly”-toiminnallisuus on varmasti tulevaisuutta ja oikeasti mahdollistaa sen, että matalamman osaamistason henkilötkin pystyvät tekemään erittäin pitkälle meneviä analyysejä. Toiminnallisuuden älykkyys saadaan puntariin piakkoin, kun se tulee beta-versiona testattavaksi.

At scale

Toinen painopistealue keskittyy enterprise-kyvykkyyksiin, eli hallintaan, konfigurointiin ja monitorointiin liittyvien toiminnollisuuksien kehittämiseen, jotta analytiikka voidaan tuoda koko organisaation käyttöön osaamisesta ja roolista riippumatta. Tapahtumassa esiteltiin uusi työkalu, joka toistaiseksi kulki koodinimellä. Idea on ns. ”add-on” Tableau-serveriin, jossa on lukuisia palvelun/palvelimien hallintaan liittyviä ominaisuuksia. Meille vilauteltiin mm. mahdollisuutta konfiguroida palvelinkokoonpanoa AWS-ympäristössä sekä määritellä tarkemmin, mitä palveluita mikäkin palvelin ajaa. Työkalun avulla pitäisi olla jatkossa myös mahdollista siirtää sisältöjä esim. kehitys-, testaus- ja tuotantoympäristöjen välillä. Epäilemättä tämä näyttää erittäin hyvältä niiden asiakkaiden näkökulmasta, joilla on klusteroitu ympäristö käytössään on-premise tai pilvessä. Työkalun beta-testaus käynnistyy 2019.3-version beta-testauksen yhteydessä joten olettaisin, että loppuvuodesta kuullaan asiasta lisää.

Lisäksi tapahtumassa mainittiin mm. extractien kryptaus oletuksena palvelimella, eli lisää turvallisuusominaisuuksia on myös piakkoin tulossa.

Trusted data

Jotta analyysejä voivat tehdä kaikki organisaation työntekijät, täytyy varmistua siitä, että datan laatu on kunnossa ja ihmiset voivat luottaa tietojen oikeellisuuteen. Loppukäyttäjistähän pääsee erittäin nopeasti eroon, jos välineen suorituskyky on heikko tai datan laatuun ei voi luottaa. Jos käyttäjä odottaa ensimmäisellä käyttökerralla 10 minuuttia raportin latautumista, on hyvin todennäköistä, ettei hän odota enää toista kertaa. Ja jos käyttäjä avaa raportin ensimmäistä kertaa ja näkee luvun, jonka tietää olevan virheellinen, on hänen vaikea uskoa, että muutkaan luvut olisivat oikein.

Tämänkin painopistealueen osalta saatiin tapahtumassa uusi julkistus: Tableau Catalog. Kyseessä on metadatan hallintatyökalu, joka tulee jatkossa sisäänrakennettuna Tableau-tuotteisiin. Työkalu indeksoi automaattisesti koko Tableaun sisällön: tietolähteet, taulut, kentät, workbookit, lataukset jne. ja muodostaa niistä metadata-katalogin. Sisällön indeksoinnin lisäksi työkalu kerää statistiikkaa siitä, kuinka paljon mitäkin sisältöä käytetään ja missä sekä kuka sisältöä käyttää jne.

Käytännön käyttötapauksia uudelle työkalulle on useita, esimerkiksi kehittäjä näkee data lineagen kautta, mihin kaikkialle mahdollinen muutos oikeasti vaikuttaa. Sivuston ylläpitäjä puolestaan voi esimerkiksi ohjata kehitystä tai suorituskyvyn parantamista käytetyimpiin kohteisiin tai poistaa käyttämättä jääneitä sisältöjä. Tai käyttäjille voi lähettää suoraan työkalusta s-postitse ohjeen siitä, että heidän tulisi käyttää epäluotettavien tai ylläpidon ulkopuolella olevien kenttien sijaan toisia kenttiä. Työkalun indeksoimaa sisältöä tuodaan myös loppukäyttäjäpäähän, eli omaa raporttia työstäessä käyttäjä voi nähdä, mistä data tulee, kuka sen on tehnyt ja milloin se on viimeksi päivittynyt jne. Tämän kaiken pitäisi lisätä luottamusta dataan, ja kieltämättä varmasti siitä jatkossa hyötyä onkin.

Mielenkiintoisena yksityiskohtana mainittakoon vielä se, että Tableau Catalogiin tulee API:t, joiden kautta metatietoa voidaan vielä ulos tai sisään. Jos yrityksellä kokonaisratkaisuun liittyy useita eri teknologioita, voidaan Tableausta kerätä metadatat ulos esimerkiksi Informatican, Alation tai Collibran data katalogi/ metadatan hallintatyökaluihin. Jos vastaavasti Tableau on kaiken keskiössä, sinne voidaan tuoda tietoja esimerkiksi Data Factorysta, jolla DW on Azureen rakennettu. Mielenkiintoisia mahdollisuuksia siis luvassa, jäädään odottamaan koeajoa!

Data-rokkitähtien johdolla tulevaan

Konferenssi itsessään oli jälleen kerran taattua Tableau-laatua. Tableaun tapahtumat eroavat kilpailijoiden vastaavista merkittävästi. Tapahtuma-alueelle saapuessa tuntuu siltä, että olisi tullut pikemminkin EDM-festareille kuin ICT-ohjelmistojen valmistajan tylsään seminaariin. Tarjoilut ovat erittäin laajoja ja laadukkaita, musiikki pauhaa kovaa ja koko visuaalinen ilme ja tunnelma ovat kuin rock-konsertissa.

Tableau-yhteisö on poikkeuksellisen suuri ja fanaattinen, ja jo pelkästään se tekee tapahtumista hyvin erilaisia. Paikka on täynnä Tableaun tuotteisiin hurahtaneita data-rokkitähtiä, jotka ylpeinä esittelevät mitä mielikuvituksellisimpia dashboardeja ja visualisointeja. Koko tämän touhun toki mahdollistaa itse tuote, joka on erittäin joustava ja monipuolinen ja jonka avulla on mahdollista toteuttaa mitä erilaisimpia visualisoinnin visioita.

Tapahtuman perusteella Tableau siis pyrkii madaltamaan kynnystä tuotteidensa käyttöön, jotta entistä useampi henkilö organisaatioissa pystyisi hyppäämään mukaan uuteen datakulttuuriin – mikä tietenkin synnyttäisi myös tarpeen ostaa lisenssejä isommalle porukalle. Enterprise-ominaisuuksien vahvistaminen puolestaan on erittäin hyvä asia jo pelkästään tietoturvanäkökulmasta. Tableaulla on perinteisesti ollut tässä hieman takamatkaa useisiin suurempiin pelureihin, mutta aika hyvin asiat ovat edenneet parin viime vuoden aikana. Ja metadatan hallintaan keskittyminen ei voi olla väärä valinta: organisaatiot tukehtuvat datan määrään, ja sen hallinnassa metadata on yksi keskeinen avain.

Tableaun suunta ei siis ole sen kummemmin muuttumassa. Tableaun tavoite on edelleen olla paras visuaalisen analytiikan ja visualisoinnin työkalu, ja hyvä niin!

Jaa tämä artikkeli