E-handelstrender 36: E-handlare måste bli bättre på SEO, optimera för röstsök & skrota marknadsmixen

E-handlarna måste bli bättre på sökoptimering. E-handlarna måste få in SEO i sina processer och rutiner. Vi frågar oss om det ska vara så svårt att skriva kategoritexter? Men vi ger också exempel på lyhörda e-handlare som fångar upp snabba söktrender.

Röstsök kan bli en miljardbusiness, men logiken kring röstsök ser annorlunda ut än den för textsök. Hur ska vi sökoptimera mot röstsök?

När Urban vill diskutera mediemix vill gästerna skrota begreppet.

Read More »

Google: internetvärldens skattefrälse

Kanske var det finansminister Anders Borgs ryande förra året när det blev offentligt att Google Sweden bara betalade 944 094 kronor i skatt år 2011 som fick Google Sweden att betala in 15,2 miljoner kronor i skatt för 2012. I Sverige omsatte Google 332 miljoner samma år. Skatten blir 4,5 procent av omsättningen i Sverige.

Men till saken hör att sökmarknadsföringen omsatte 2,9 miljarder kronor i Sverige under 2012, enligt Institutet för reklam och mediestatistik. I Sverige har Google ungefär 94 procent av sökmarknaden enligt Statcounter. Därför är det rimligt att utgå från att Google har fakturerat svenska företag 2,7 miljarder kronor det året. Nu blir den svenska beskattningen av Googles försäljning till Sverige 5,5 promille. Vid denna tidpunkt var företagsskatten 26,3 procent i Sverige, men har senare sänkts till 22 procent.

I Storbritannien, som är den enda marknaden vid sidan om USA som särredovisas i Googles årsredovisningar, uppgick försäljningen till 31,6 miljarder kronor 2012. På detta betalades 354 miljoner kronor i företagsskatt i Storbritannien, vilket motsvarar 1,1 procent av omsättningen. På alla intäkter 2012 utanför USA betalade Google 2,6 procent i skatt, enligt Reuter.

Hur är det möjligt? Jo, när ditt företag köper Adwords bokas köpet på Irland. I nästa steg betalar Google Ireland Ltd höga licensavgifter för Googles tjänster till Google Bermudas för att minimera skatteuttaget.

– Det kallas kapitalism och vi är stolta över att vara kapitalistiska, har Googles styrelseordförande Eric Schmidt sagt till skatteplaneringens försvar.

Så nu vet du vem som betalar en stor del av Googles gratisluncher, företagsuppköp och gratistjänster. Det är skattebetalarna världen över. Och Google är i gott sällskap när det gäller andra internetgiganter som Facebook, Apple och Amazon när det gäller att betala minimalt med skatt.

I Israel planeras ett lagförslag där Google ska betala 7 procent i avgift på intäkterna till de företag som vars innehåll Google tjänar pengar på. Det skulle i hela världen bli en nätt summa då Google förra året sålde annonser för 50 miljarder dollar. Man kan ha olika ideologiska hållningar till beskattning, men 5 promille i beskattning tror jag de flesta vänder sig emot.

Sök gör Facebook spännande, igen

Idag definieras hela internet utifrån sök och det är lätt att tro att det inte går att utmana Google inom sök. Att deras tekniska och affärsmässiga försprång är för stort i USA och Västeuropa.

Men om det finns en aktör som har möjligheterna är det Facebook med sitt unika innehåll från en miljard medlemmar. Att Facebook dessutom samarbetar med Microsofts sökmotor Bing ökar deras möjligheter att lyckas.

Dansken Lars Rasmussen gjorde Google Maps till vad det är idag, en helt central tjänst för Google vid sidan om det vanliga webbsöket. Till och med Apple fick göra en taktisk reträtt och godkänna Google Maps app för Iphones. Sedan byggde Lars Google Wave, vars ambition var att förändra vårt sätt att kommunicera på internet. Google Wave lades ner och Lars drog vidare till Facebook.

Facebooks vanliga sökfunktion är inte imponerande. Kantig är det snällaste jag kan säga om den. Men med Grafsök som presenterades i förra veckan finns det en ambition och vilja att utmana Google inom sök. Kring den tidigare Google-medarbetaren Lars Rasmussen har det samlats ett team på 70 personer. Genom att söka i sin egen databas efter relationer mellan användare och innehåll gör Facebook något Google inte kan kopiera. Och flera trillioner relationer behöver sin sökmotor.

Facebooks Grafsök kommer att förändra användarnas syn på sök. Eftersom sökobjektet är relationer kommer vi använda Grafsök annorlunda än webbsök. Möjligheten att t ex söka efter vänners vänner som arbetar på det företaget du vill börja arbeta på borde skrämma fler än Google (Linkedin, Monsters). Eller varför inte leta rätt på vänner i staden du besöker som gillar ditt fotbollslag – det är ju alltid trevligare att se en match med vänner än ensam.

Enda sättet att slå Google inom sök är att omdefiniera vad sök är för något. Frågan är om inte Facebook håller på att göra det? Om inte användarna slår bakut utifrån de integritetsproblem som skapas när alla relationer är sökbara. Googles svar borde rimligen bli att integrera deras egna sociala nätverk Google+ ännu mer i sökresultatet. Sök är bara i sina tidiga tonår.

Facebook ökar fokus på sök

Facebook har skapat en sökgrupp med ett par dussin tekniker som leds av den erfarne sökteknikern Lars Rasmusen som tidigare arbetade på Google. Mycket talar för att Facebook vill ta en bit av sökmarknaden värd 100 miljarder kronor, skriver BusinessWeek.

Dansken Lars Rasmussen grundade kartprogramföretaget Where 2 Technologies som såldes till Google 2004. Han har sedan hjälpt till att skapa Google Maps och var även drivande i Googles nedlagda projekt Google Wave som försökte skapa ett nytt sätt att kommunicera på nätet.

Sök är en för lönsam affär för att ignoreras av de stora internetaktörerna. Därför är få förvånade att Facebook under stort hemlighetsmakeri satt upp en grupp som ska utveckla deras sök. Med 845 miljoner användare behöver inte Facebooks usla sök bli så mycket bättre för att det ska bli en affär värd att tala om.

Read More »

Mitt sök är inte ditt sök

En gång tiden kunde svenskarna diskutera samma tv-program på jobbet dagen efter sändning. Med två kanaler från samma public service-företag var det enkelt att styra lunchrumssnacket på måndagarna. Idag har tv förlorat rollen som snackismotor.

Sedan några år tillbaka har Google arbetat hårt med att personalisera sökresultatet. Glöm att du har samma sökresultat som släkt och vänner.  Många företagare tror glatt att de rankar på deras viktigaste sökord i Google – tills någon ber dem att logga ut från Googles Gmail. Utloggad från Googles tjänster brukar sökresultatlistan se ganska annorlunda ut. Är du inloggad vet Google vad du sökt efter de senaste veckorna och rankar upp sådan som du gillar – din egen sajt till exempel.

Lokalisering är ett annat stort projekt hos Google. Söker du exempelvis efter ordet yoga eller restaurang i Stockholm får du en ganska annorlunda sökträfflista än vad kusinen i Säffle får med samma sökning. Detta oavsett om ni är inloggade eller inte. Google uppfattar vissa sökningar som lokala och presenterar sedan en söklista som de tror är mest relevant i Stockholm eller Säffle.

Ett annat förvirrande misstag är att utnyttja sökrutan i webbläsaren Firefox och sökresultatet kommer bli annorlunda än om du söker på Google.se. Standardinställningen i Firefox är Google.com och det är stor skillnad mellan sökträffarna i Google.se och Google.com.

Googles sociala filter Google+ som öppnades för alla användare i dagarna lägger till en social aspekt där du ser om vänner gillat olika sidor. Det lär påverka vilka träffar du klickar på, men säkert också rankingen av de gillade träffarna.

Med andra ord kan du aldrig vara säker på att andra får samma sökresultat som du. Å andra sidan är hälften av alla sökningar en vanlig dag helt unika. Sök är en allt mer personlig historia.

En ny sökrevolutionen varje år

Google förändrade våra liv för flera år sedan. Samtidigt förändrar sig Google varje år. Förra året var inget undantag.

I december 2009 gjorde realtidswebben sitt intåg hos världens populäraste sökmotor. När Google kopplade ihop sig med den hysteriskt populära mikrobloggtjänsten Twitter kunde vi för första gången se sökresultaten förändras inför våra ögon utan att vi gjorde några förändringar i sökorden. På vissa sökningar klickade Twitterinläggen fram samtidigt som de postades runt om i världen.

Tidigare under året hade Google.com fixat till sitt gränssnitt så att vi enkelt kunde snurra presentationen efter hur färsk informationen är eller från vilken typ av källa den härstammade.

2009 var också året när Google har utökade möjligheten till personaliserat sökresultat till alla användare. Tidigare var det enbart användare som var inloggade och hade historikfunktionen påslagen som fick ett sökresultat som var anpassat till tidigare sökningar och beteenden. Med hjälp av en cookie i användarens webbläsare kan Google anpassa sökresultatet efter beteendet de senaste 180 dagarna. Om en användare har visat intresse för en särskild sajt kommer den att rankas upp i framtida sökresultat. Jag har själv lurats att tro att mina sajter börjat ranka på viktiga ord, när det bara handlar om mitt personliga sökresultat

Personaliseringen ger mer relevanta träfflistor för den enskilda, men gör det samtidigt svårt att bedöma hur en sajt rankar på ett enskilt sökord. Alla sökresultat blir ju personliga och unika.

En av de viktigaste förändringarna inom sök och webbutveckling under 2009 var det mobila internet genombrott. Iphoneanvändningen fortsatte att öka det mobila surfandet samtidigt som Googles egna mobiloperativsystem Android fick en ordentlig skjuts i användandet under det sista kvartalet av 2009. Google försäkrade sig om en plats i solen även inom mobilbannerannonsering genom att köpa det mobila annonsnätverket Ad Mob.

Inom mobilt sök är lokalt sök en viktig komponent. Och att Google lägger allt större vikt vid lokalt sök är ett bevis på hur viktigt de tror att det mobila internet kommer att bli. Under 2009 behövde användarna inte ens skriva in en geografisk plats för att det lokala resultatet ska presenteras i Googles vanliga webbsök. Sökningar efter exempelvis restauranger, tandläkare och gym triggar igång det lokala söket. Sökmotorn gissar var användaren befinner sig utifrån ip-nummer, men användaren kan ändra platsen som Google vill knyta en sökning till efter. I Sverige samarbetar Google sedan länge med Eniro för att kunna tillhandahålla ett lokalt sökresultat.

Under 2009 kom Google Streetview till Stockholm. Google fotograferade Stockholms gator för att kunna visa gatubilder i sin karttjänst. Tidigare har andra europeiska städer som Amsterdam och London fått Google Streetview. Men i Sverige ligger både Hitta.se och Eniro före Google vad det gäller att fotografera gator.

När det gäller 2010 så har Google via talesnörden Matt Cutts förklarat att hur snabbt en hemsida laddar kommer att bli en faktor för hur bra en hemsida rankar i Google under 2010. Historiskt har Google inte använt snabbhet i ranking av sajter, men många personer på Google tycker att webben ska vara snabb, enligt Matt Cutts. Den ska vara en bra upplevelse, därför är det rättvist om en snabb sajt får en liten bonus. Det är hög tid att snabba upp sajten till 2010 om man vill få en extra skjuts i sökmotorerna nästa år.

Google släpper medieplanerare

Googles nya medieplanerarverktyg Google Adplanner ger oss möjlighet att se svenska trafiksiffror för svenska och utländska sajter som inte är med i Kiaindex. Med Googles AdPlanner går det att få uppskattningar på hur mycket trafik de flesta större svenska sajter får, med undantag för Google. Här får du exempelvis unika besökare, sidvisningar och site index nedbrutet på geografiska områden. Allt går att exportera allt till Excel. Det går också att se vilka typer av annonser sajterna har och i vilka format.

Tidigare har man varit hänvisad till Alexa för att kolla in sajter som inte är med i Kiaindex, men Google Adplanner är betydligt vassare. Tråkigt nog funkar inte den riktigt spännande funktionerna att kunna se vilka sajter personer besöker som söker på ett visst ord i Google i Sverige på grund av ett för litet statistiskt underlag.

Google Adplanner tar data från Googles egna aggregerade sökdata och frivilliga anonyma data från Google Analytics plus en extern användarpanel och tredjeparts data från undersökningsföretag. Google själva hävdar att deras data är tillräckligt bra för att använda vid planering av mediekampanjer.

Aftonbladet har 4 026 487 besökare per vecka i Kiaindex och 2 600 000 besökare i Google AdPlanner per 30 dagar. När det gäller sidvisningar hade Aftonbladet 71 miljoner i Kiaindex och 110 miljoner i Google Adplanner.

Människan styr sök 4.0

Människorna får en allt större betydelse för sökresultatet i framtiden. Sökgurun Danny Sullivan ser personaliserat sök och mänskligt redigerade sökresultat som viktiga delar i nästa steg i utvecklingen av sökmotorer.

Enter humans. A human editor, reviewing results like that, can immediately spot junk that should get yanked. Even better, a human editor could act as a curator. How hard can it be to find 10 quality sites that should come up for that or other terms?

Problemen med dagens sökteknologi blir allt mer uppenbara ju fler hemsidor och internetanvändare vi får. Hur ska sökmotorerna kunna presentera ett relevant resultat i en allt större höstack av information? En lösning är att låta människan, inte algoritmen, få en större betydelse för rankingen av hemsidor.

Danny Sullivan delar in sökmotorutvecklingen i fyra steg:
Sök 1.0 (1996): Sidor rankas med hjälp innehållet på sidorna. Här var det Altavista som dominerade.

Sök 2.0 (1998): Sidor rankas med hjälp av länkar utanför sidorna. Google kom från ingenstans, utan en affärsmodell och blev världens största medieföretag tack vare konceptet PageRank där sidor rankades efter hur många länkar som pekade mot dem.

Sök 3.0 (2007): Sökresultat från specialsökmotorer blandas med det vanliga sökresultatet. Google införde universiellt sök i maj 2007 och både Yahoo och Live Search följde efter.

Sök 4:0 (2008): Sökresultatet påverkas av dina personliga sökmönster och mänskliga redaktörer. Här är Mahalo och Wiki Search två exempel på mänskligt redigerade sökmotorer. Men också svenska Twingly som när som helst kommer ur betan.

Google personaliserar redan sökresultatet genom att lagra användarens sök- och klickmönster när de är inloggade för att kunna presentera ett resultat anpassat för den enskilde individen. Här är det den enskildes användarmönster styr sökresultatet.

Redan idag påverkas sökresultaten hos Google av hur alla användarna klickar i sökresultaten. Inga klick visar att resultatet inte motsvarade sökarens förväntningar. Sökmotor Mahalo driver detta ett steg till genom att låta mänskliga redaktörer redigera sökresultatet för vissa sökningar.

Utvecklingen inom sök är fortfarande i barnstadiet. Sökmotorerna kommer att bli bättre att förstå våra önskningar i framtiden.

Google öppnar upp sökalgoritmen

Hur Google rankar webbsidor i förhållande till olika sökfraser är en av de bäst bevarade hemligheterna på webben. Men i ett blogginlägg av Udi Manber, som är chef för sökkvalité hos Google, lättas det en aning på sekretessen.

Vi kommer regelbundet att berätta om nya saker, förklara gamla saker, ge råd och sprida nyheter och engagera oss i konversationen, skriver Udi Manber.

Grundarnas, Larry Pages och Sergey Brins, ursprungliga sökalgoritm PageRank används fortfarande, även om den bara är en av många algoritmer och filter som påverkar sökresultatet. Google använder bland annat språkmodeller som hanterar fraser, synonymer, felstavningar och så vidare, tidsmodeller som avgör om sökaren vill ha en gammalt eller nytt innehåll och personaliserade modeller som anpassar resultatet efter enskilda individers behov.

Uppdateringar av algoritmen är kanske de mest omdiskuterade förändringarna hos Google. Under 2007 genomfördes 450 förbättringar av Googles sökalgoritm med det enda syftet att förbättra användarens upplevelse av tjänsten.

Det handlar nästan alltid om att förbättra relevansen hos sökresultatet, skriver Udi Manber.

Har vanligt webbsök nått sin topp?

Sökutveckling

Det blir allt svårare att hitta den värdefulla nålen i höstacken. Med 100 miljoner aktiva webbplatser och 1,3 miljarder internetanvändare närmar sig vanligt webbsök en brytpunkt där sökresultatet kommer att försämras. Nova Spivack, grundare och CEO på Radar Networks, hävdar att vi inom kort kommer att få uppleva allt sämre sökresultat och han tror att semantiskt webbsök är svaret på ett allt sämre fungerande webbsök.

Nyckelordssökmotorer ger oss höstackar när vi egentligen letar efter nålar. Problemet med nyckelordssök som Google är att bara mycket citerade sidor kommer till toppen av sökresultatet, säger Nova Spivack, enligt TechCrunch.

Användarna får många svar, men sidan du letar efter är kanske inte så citerad av andra sidor att den kommer till förstasidan av sökresultatet. Det beror på att nyckelordssök inte förstår din fråga, den hittar bara sidor som matchar orden i din fråga.

Lösningen på problemet är semantiska webben där informationen taggas upp med särskilda standardiserade mikroformat som hjälper datorer att förstå meningen med informationen.

Du gör webben till en databas som din data blir en del av. Din data blir en del i en världsomspännande databas. Den semantiska webben låter dig gå från data till data precis som du går från webbsida till webbsida, säger Nova Spevick.

Sök går om communitys som trafikkällor

Sök kontra sociala nätverk som trafikkällor

Trenden är solklar. Sökmotorerna driver allt mer trafik till de allt mer populära videosajterna. På ett år har andelen av trafiken till videosajter som kommer från sökmotorer ökat från drygt 20 till 28 procent. Samtidigt har andelen trafik från sociala nätverkssajter minskat från över 35 procent till 29 procent, enligt Hitwise.

Ändå är MySpace är den sajt som driver mest trafik till videosajter, följt av Google och Yahoo.
Trafikströmmarna från Google ökade med 44 procent under veckan som slutade den 12 april 2008 i jämförelse med samma period förra året. Trafiken från Yahoo till videosajter ökade med 13 procent under samma period. Förklaringen är att universellt sök ökar exponeringen av videofilmer i sökresultatet.

Twingly släpper ny sökmotor i privat beta

Linköpingsföretaget Primelabs har släppt sin nya spamfria bloggsökmotor Twingly i privat beta. Här tigger du en inbjudning. Twingly har idag indexerat nästan 150 000 svenska bloggar och den nya sökmotorn göra innehåll från 15 miljoner internationella bloggar tillgängliga via sökmotorn.

– Vårt index växer hela tiden, säger Martin Källström, vd på Primelabs till Uppkopplat.

Det går att avgränsa sökningarna utifrån språkområden i bloggosfären och tidpunkt för publicering. Sökrankingen kan bestämmas utifrån Twinglys algoritmer, sociala omröstningar och inlänkningar.

Det är Twinglys spamskydd som gör att de kan utmana internationella aktörer som Technorati som blivit allt mer nedsmutsade av spambloggar. Användarna kan välja att söka inom ett garanterat spammfritt index eller ett större index där risken för spam kvarstår.
– Vi indexerar bara godkända bloggar. Urvalet sker både genom algoritmer och redaktionellt, säger Martin Källström.

Några sponsrade länkar på Twingly är inte aktuell utan pengarna tjänas genom B2B-tjänster som att tillhandahålla listningar av bloggar som citerar olika tidningar som är kunder hos Primelabs.