Af Anders Munk, Henrik Halkier & Laura James, Aalborg Universitet
I tre tidligere blogindlæg har vi fortalt, hvordan vi har kortlagt #baredanmark kampagnen på Instagram ved hjælp af netværksanalyser og kunstig intelligens. I dette fjerde og afsluttende indlæg om sociale medier vil vi kigge bredere på, hvordan turismebranchen kan få gavn af de nye værktøjer til blandt andet billedanalyse, der i øjeblikket bliver mere og mere tilgængelige. Man kan selvfølgelig altid købe sig til hjælp hos konsulenter og vidensinstitutioner - men nu om dage kan man faktisk også selv bruge kunstig intelligens til at bliver klogere på sine gæster og sin destination.
Kunstig intelligens som genvej til ny viden
Det materiale, vi har arbejdet med i analysen af #baredanmark, er på mange måder typisk for de ustrukturerede og nærmest kaotiske datasæt, som flere og flere virksomheder og organisationer er omgivet af. De minder ikke om konventionelle kvantitative data i fx et regneark, men mere om den slags materiale man normalt vil analysere med kvalitative metoder. Det drejer sig især om tekster og billeder. Det nye er, at vi kan behandle denne type materiale maskinelt og i meget store mængder.
Kunstig intelligens har gjort det muligt at undersøge tekster og billeder på nye måder. Fordi vi efterhånden har meget store datasæt til rådighed, er det blevet muligt at ”træne” maskiner til at genkende mønstre i data og eksempelvis lære at skelne mellem negativt og positivt sprog eller identificere bestemte emner. I vores seneste blog brugte vi sådan en analyse til at geolokalisere opslag på Instagram ved at genkende stednavne i billedteksterne.
Automatiseret tekstanalyse har været tilgængelig for den almindelige bruger i nogen tid gennem forholdsvist let anvendelige værktøjer. Tekst er imidlertid ikke altid det mest interessante at undersøge. På et medie som Instagram spiller billedet fx helt åbenlyst hovedrollen. Det er ikke engang sikkert, at brugeren vælger at forfatte en billedtekst, og hvis det sker, kan det være på forskellige sprog samt af meget varierende længde og stil. Gennem de billeder, besøgende lægger op på Instagram, kan vi imidlertid på tværs af fx sproggrænser få en idé om, hvad det er for nogle motiver, der i deres øjne er værd at blive sat i forbindelse med.
På den måde er billeder også mere sammenlignelige end tekster på tværs af sammenhænge. Et billede taget på Grenen (Skagen) af en fransk turist kan for eksempel umiddelbart sammenlignes med et billede taget samme sted af en medarbejder fra Skov- og Naturstyrelsen. Motiverne vil formentlig afsløre, at de to fotografer har forskellige interesser, men begge billeder er taget på Grenen. Det ville ikke på samme måde være muligt at sammenligne deres tekster direkte, fordi de er skrevet på forskellige sprog.
Ved at undersøge mange billeder på samme tid kan vi finde mønstre i, hvad fotograferne interesserer sig for. Det kunne for eksempel handle om at finde ud af, hvordan forskellige grupper af besøgende afbilleder en destination. Er der forskel på, hvordan par, børnefamilier eller seniorer tager billeder af Skagen? Det kunne også handle om at finde ud af, hvordan et bestemt motiv finder forskellige udtryk på forskellige destinationer. Hvordan bliver mad eksempelvis fotograferet på restauranter i København? Og hvordan afviger det fra restauranter på Bornholm, gårdbutikkernes madmarkeder eller grillaftener i sommerhuset? I #baredanmark analysen fandt vi på den måde mønstre i de emner, som brugerne på Instagram associerede med kampagnen og dermed i det, de fandt Instagram-værdigt ved en sommer i Danmark.
Den slags analyser kræver, at vi kan behandle tusindvis af billeder automatisk, og til det har vi brug for en teknologi indenfor kunstig intelligens, der hedder computer vision. Heldigvis er computer vision indenfor de sidste få år blevet markant mere tilgængelig for den almindelige bruger. Services som Google Vision eller Clarifai leverer således relativt træfsikre algoritmer, der kan identificere motiverne på dine billeder på et splitsekund.
Kunstig intelligens - det handler om at træne rigtigt
Du kan prøve Clarifais version, som vi også brugte til #baredanmark analysen, her. Prøveversionen gør det muligt for dig at sende et billede, som du selv har valgt, til en af Clarifais modeller og se, hvad det er for nogle emner, den er i stand til at genkende. Du kan finde et billede på nettet i din browser, højreklikke på det og kopiere billedets adresse. Det giver dig en sti (url), som du efterfølgende kan kopiere ind i Clarifais prøveversion. Når vi bruger Clarifai til større undersøgelser, tilgår vi modellerne gennem en API, der gør det muligt at sende tusindvis af adresser afsted ad gangen ved hjælp af et script. Den mulighed giver prøveversionen ikke, men princippet er derudover det samme.
Hvis vi bruger Clarifais generelle model på et tilfældigt billede af ramsløg i en skovbund (se billede 1) kan vi med stor sikkerhed sige, at billedet er taget ude i naturen, at der ikke er mennesker på, at der er tale om et blad fra en plante og så videre. Vi ved ikke, at der er tale om ramsløg i en skovbund, men vi ved, at billedet er taget udendørs af en plante med blade om sommeren. Den generelle model er designet til at kunne håndtere alle typer billeder uden at være specialiseret i noget bestemt. Derfor er det også typisk nogle relativt overordnede indsigter, vi kan opnå om billederne på den måde.