Pappa, poddare, Volvoman, chipsentusiast

Migrera e-post från Exchange Server

Migrera e-post

Efter att ha börjat se över min privata serverpark så är det en sak som jag känt mig missnöjd med: min e-postserver. Det har med åren blivit allt mer komplicerat att köra egen e-postserver hemma på privat internetlina, även om man har en fast IP-adress, port 25 öppet och en korrekt reverse DNS-pekare mot sin e-postserver. Det är också, minst sagt, inte helt underhållsfritt att köra en Exchange Server – detta är som de flesta vet en smidig och trevlig lösning tills att man stöter på ett problem, exempelvis ett strömavbrott eller när servern ska patchas och det går åt skogen.

Så jag började fundera. Jag satt och jämförde priser på olika lösningar där jag låter ett annat företag hantera allt åt mig och jag tittade högt som lågt, från Exchange Online till Mailbox.org men det hela föll på att det skulle kosta mig 500-600 kronor i månaden, alltså 6000-7000 kronor om året, för att hantera e-post åt mig, mina barn och mina föräldrar. Det blev helt enkelt för dyrt, även om det varit oerhört bekvämt att bara kasta problemet på någon annan.

Således tillbaka till ritbordet. Jag ville ha något enklare än Exchange Server, som bygger på Linux, Postfix och andra programvaror som bygger på öppen programvara, som är duktiga på att skriva i loggfiler (och därmed är enkla att felsöka), som stödjer ActiveSync till enheter som kan använda det och som också erbjuder IMAP, vettig webbaserad e-postfunktion, kalender och kontaktsynkning till alla de plattformar jag använder dagligen (iOS, LinageOS, macOS och Linux). Efter en del rotande och funderande så föll valet på iRedmail som är en gratis paketering med alla dessa funktioner inbyggt från skalet. Den webbaserade kontrollpanelen är inte helt överdrivet imponerande såvida man inte vill betala 499 dollar per år för att få en fullfjädrad dito men gänget bakom iRedmail är ändå pass snälla så de noga dokumenterat hur man kan utföra de allra flesta administrationsgöromål i ett terminalfönster istället. Att de dessutom endast tar betalt via Paypal är, åtminstone i min bok, ett klart misstag.

Hur som haver, efter att jag tittat på olika leverantörer av en virtuell privat server (VPS) föll valet på OVH och en tusenlapp senare hade jag tecknat mig för tolv månaders abonnemang av en VPS med dubbla processorkärnor, fyra gigabyte internminne och 80 gigabyte hårddisk. Fyra gigabyte internminne är det gränsvärde som iRedmail-utvecklarna anger som en lägsta-nivå för en mindre e-postserver vilket jag anser att min är. Skulle det behövas mer är det bara att panga på fyra gigabyte till, men där är vi inte ännu.

iRedmail är därefter installerat, SSL-certifikatet är fixat med Let’s Encrypt (givetvis), domäner och användarkonton inlagda DKIM-nyckeln för respektive domän är genererad och inpetad i Amavisd.conf och DNS-tabellerna för varje domän är uppdaterad. Således är det dags att migrera e-posten från den gamla Exchange-servern till min nya fina server.

Det är, som det brukar heta, nu det “roliga” börjar.

Det är inte roligt

Nej, det är inte roligt att migrera e-post, i synnerhet när det är någon annans e-post man ska migrera. Men det måste göras och har man en gång öppnat dörren för att hantera e-post för kreti och pleti så får man vackert leva med att jobbet måste göras.

Hur som haver, det är egentligen inte så vansinnigt komplicerat, egentligen. Mycket tack vare att du nu får några tips som kommer göra det betydligt enklare för dig.

Först och främst: se till att IMAP-tjänsterna är aktiverade i din Exchange-server. Kolla i services.msc på servern om de är igång, om inte – starta dem.

Se därefter till att användarna har IMAP aktiverat som funktion för sina användarkonton. Har du inte aktivt slagit av detta brukar det vara aktivt som standard men dubbelkolla genom ECP.

Testa sedan att köra telnet till din e-postserver på port 143 eller 993. Om servern säger “hej hopp” och sedan väntar på input är det grönt ljus och du kan gå vidare i processen. Om den däremot “slänger på luren” och inte vill prata med dig alls så ska du läsa vidare i nästa punkt.

Detta är nästa punkt. Logga in via RDP med ett administratorkonto på din Exchange-server och öppna därefter EMC (Exchange Management Shell). Ge därefter kommandot Get-ServerComponentState och kolla noggrant om det finns tjänster som står som Inactive.

Migrera e-post

Ser det ut som bilden ovan, att ImapProxy står som Inactive så betyder det precis vad du tror – den kommer inte prata IMAP med dig. Lyckligtvis är det inte supersvårt att fixa. Ge följande kommando: Set-ServerComponentState -Identity SERVERNAMN -Component IMAPProxy -State Active -Requester HealthAPI

Kör sedan Get-ServerComponentState och se så ImapProxy står som aktiv och försök köra telnet till den igen på port 143 eller 993.

Ser allt bra ut kan du sätta igång att migrera.

Migreringsprocessen

Vi använder oss i denna guide av ett verktyg som heter Imapsync. Den gör precis vad namnet antyder, synkroniserar e-post mellan två olika servrar, eller två olika konton på samma server, via IMAP-protokollet. Det finns tonvis med information om hur man använder Imapsync, man kan köra det på Windows, Unix eller Linux med olika för- och nackdelar. Jag har valt att köra det på Linux därför att.

Installera Imapsync (på Linux och Unix kan du behöva kompilera det – läs på och fixa) och sedan skapar du två filer i den katalog du kör Imapsync från: pass1 och pass2. Varför undrar du? En titt på kommandoraden jag kör visar vad det hela handlar om:

imapsync --host1 server1 --ssl1 --user1 login --passfile1 pass1 --exclude Public Folders --host2 server2 --ssl2 --user2 login --passfile2 pass2

Förklaringsdags:

–host1 är den server du migrerar från.
–host2 är den server du migerar till.
–ssl1 anger att Imapsync ska prata SSL med servern du migrerar från.
–ssl2 anger att Imapsync ska prata SSL med servern du migerar till.
–user1 är inloggningsnamnet på den användare på host1 du ska migrera till användaren på host2.
–user2 är inloggningsnamnet på den användare på host2 du ska migrera från användaren på host1.
–passfile1 är lösenordet för den användare på host1 du ska migrera till användaren på host2.
–passfile2 är lösenordet för den användare på host1 du ska migrera från användaren på host1.
–exclude Public Folders innebär att jag inte vill synkronisera över innehållet i några publika foldrar på Exchange Servern. Det finns inget där på min server men det kan ställa till det i synkroniseringen så mitt råd är att skippa dem.

Anledningen till att man sätter lösenorden i en fil är att de ofta innehåller knepiga tecken och det kan ställa till det i kommandoraden i Linux. Om du kör Imapsync och inte anger några parametrar alls så kommer du se alla parametrar du kan köra. De är många och de flesta behöver du nog inte men det kan vara värt att kolla på.

Om allt fungerar kommer e-posten att synkroniseras över mellan de två servrarna. Beroende på hur snabb internetanslutning du har och hur mycket e-post som ska slangas över så kan det ta några minuter eller så kan det ta… fler minuter. Ett konto jag migrerade med 476 megabyte e-post, drygt 7000 brev, tog drygt 17 minuter att överföra med ett snitt på drygt sex meddelanden i sekunden enligt Imapsync.

Har du fler användare är det bara att repetera processen tills du är klar. Se till att du håller ordning på lösenorden så kommer det fungera finemang.

Lycka till!


- = -

BMÅ 251: I bodelningen hade jag ett väggfäste

Avsnitt 251 av min, Fredriks och Christians podd diskuterar vi tunga ämnen som Fredriks fläktande jobbdator, Jockes knastrande labbkluster och Christians kärlek till Apples “Get a Mac”-kampanj.

Lyssna här vettja.


- = -

Preview-bilder med Jekyll

Preview i iMessage

Webben har många roliga egenskaper numera. En sak som jag aldrig riktigt orkat kolla på tidigare är att kunna visa en preview-bild när man postar en länk i exempelvis iMessage, Mastodon, Facebook, Twitter, LinkedIn eller på någon annan webbsajt som stödjer att hämta hem en förhandsvisning från den sajt du länkat till. Detta kallas OpenGraph Link Preview och förhandsbilden är en del av massor av olika metadata du kan mata in i en bloggpost.

Jag är inte överdrivet intresserad av allt detta (ännu – jag kanske orkar rota vidare i detta senare) men det jag ville åstadkomma var att få fram dessa förhandsbilder i mina Jekyll-postningar på denna blogg (och senare på Björeman // Melin // Åhs-sajten).

Hur som helst, lite rotande och grävande senare lyckades jag få till det och i princip är det fyra steg du måste göra.

Lägg först till följande rad i _config.yml för din sajt:

plugins:
jekyll-seo-tag

Installera jekyll-seo-tag-pluginen genom att lägga till följande i din Gemfile för din Jekyll-sajt:

gem 'jekyll-seo-tag'

Kör sedan bundle install för att installera pluginen.

I ditt tema lägger du till följande tag precis innan </head>:

{{ seo }}

I mitt tema la jag detta i /_layouts/post.html, i ditt tema kan det vara någon annanstans.

I den bloggpost som du vill ha med förhandsbilden lägger du till följande i :

image:
path: /assets/jekyll_logo.png
height: 100
width: 100

Path pekar mot bilden du vill ha med i förhandsvisningen. Därefter är det bara att bygga och producera din blogg som vanligt så ska förhandsbilden visas som tänkt.


- = -

Hejdå, VMware – Hej Proxmox!

vh01

​Jag har ju uppenbarligen svårt att lära mig av tidigare misstag, eller så är jag bara oerhört envis. Jag har nämligen försökt migrera mitt hemmalabb till Proxmox tidigare. Två gånger till och med. Varje gång har jag ångrat mig, men denna gång gick det faktiskt vägen och detta tack vare två nya faktorer i sammanhanget.

Det ena är det faktum att jag numera endast behöver köra en enda server istället för två som tidigare. Det andra är att jag byggt en ny lagringslösning.

Låt mig förklara

Mina gamla grejer i hemmalabbet byggde på ett SAN som använde Fibre Channel för sin kommunikation. När jag försökte köra Proxmox i ett kluster med en delad lagringslösning baserad på Fibre Channel slutade det inte väl – det hela baserades på att ena klusternoden initierade och “ägde” anslutningen till SAN:et som monterades som en LVM, som man i sin tur sedan delade ut till andra noder i klustret. Problemet var att trafiken till SAN:et då gick från en nod till en annan nod till SAN:et och sedan tillbaka, och prestandan blev därefter. Man kunde lösa det genom att köra Multipath men det blev aldrig riktigt bra, åtminstone inte så bra som det fungerade i VMware ESXi 6.5 som jag var van vid.

Servrarna var inte heller särskilt purfärska men då jag de senaste 18-månaderna samlat på mig modernare grejer (mest genom gåvor och fynd jag gjort) har jag pö om pö uppgraderat mitt hemmalabb med. Detta första faktum har lett till att jag nu har aningen modernare servrar (två Dell R620) som jag migrerat ihop till enda server genom att trycka in allt minne från den ena i den andra. Detta har gett en maskin med 32 CPU-kärnor och 384 gigabyte internminne. Det räcker gott och väl för mina behov.

Truenas

Det andra är att jag också investerat i ett bättre nätverk där jag kan köra 10GbE mellan alla servrar. Detta, plus det faktum att jag byggt ett nytt SAN med en HP-server (D170 generation åtta, nedklockad till sin lägsta hastighet för att spara ström), åtta 3TB-diskar, tre SSD-diskar och lite mer minne i den maskinen och vips så kunde jag bygga mig en snabb modern lagringslösning baserad på TrueNAS (före-detta FreeNAS).

Varför vill jag då byta bort VMware och mitt gamla FC-SAN?

Problemen är flera: mina Dell R620-servrar stöds inte av något nyare än VMware ESXi 6.5, vilket börjar bli till åren kommet. Det andra är att mitt FC-SAN, som visserligen fortfarande fungerar, är 16-17 år gammalt och inte fungerar något vidare med hårddiskar större än 1TB. Det gör att jag är begränsad till hur mycket yta jag kan få ut från det SAN:et vilket ger drygt 12TB i RAID-5. I takt med att diskarna går sönder, för de gör ju det till slut, så är det heller inte särskilt roligt att behöva köpa 1TB-diskar att ersätta de gamla med.

FC-SAN:et är inte överdrivet snålt när det gäller elförbrukning heller så det vore också trevligt att hyvla bort några watt på elräkningen så det fick bli ett nytt bygge.

Kort sagt: jag ville bygga en ny miljö på modernare hårdvara och mjukvaror som fortfarande uppgraderas och som också är gratis.

Så jag satte igång att åter igen titta på Proxmox. Och om det ska jag berätta om nu.

Migrering

Förr i tiden (det vill säga, i mina två tidigare försök, fick man vackert överföra filerna från VMware i form av VMDK-filer till en annan storage och sedan konvertera dem till qcow2 eller vad man nu ville har för format på sina virtuella diskar. Jag hade helt missat att det finns ett verktyg som heter OVFTool som gör det väldigt enkelt att överföra VMware-maskiner till Proxmox via SSH och HTTPS. Den eller de maskiner du vill överföra måste vara avstängda vid flytten men i övrigt är det bara att på din Proxmox-server, eller på en annan maskin du vill använda köra, kommandot och sedan vänta. För det tar en del tid, i synnerhet om diskfilerna till dina virtuella servrar är flera hundra gigabyte stora.

Efter att man migrerat över sina virtuella maskiner är det dags att importera det hela till Proxmox. Detta sker med fördel i CLI-gränssnittet som du kommer åt genom att SSH:a till din Proxmox-server:

qm importovf vm_id /namn_på_vm/namn_på_vm.ovf namn_på_lagring

Det ovanstående kan behöva en förklaring, så här kommer den:

vm_id = nästa lediga ID i Proxmox. När du skapade din första virtuella maskin i Proxmox fick den ett ID, ett siffervärde, som är 100. Därifrån stiger nummerserien automatiskt för varje ny server du skapar, men om du importerar en virtuell maskin på det ovanstående sättet måste du själv ange ID-numret. Enklast att göra detta är att kolla i Proxmox webbgränssnitt hur läget är – om den sista virtuella maskinen du kör har ID 110 så använder du 111 vid importen, och så vidare.

namn_på_vm/namn_på_vm.ovf = när du exporterar en virtuell maskin med OVFTool skapas en katalog automatiskt som döps till samma namn som den virtuella maskinen. I denna katalog läggs sedan de filer som du ska importera. Om du har exporterat en virtuell maskin från VMware som heter “mail” så kommer sökvägen således vara “/mail/mail.ovf”.

Lagring

namn_på_lagring = namnet på den lagringslösning du vill placera den importerade virtuella maskinen. Har du ett SAN så kanske det heter “SAN01”. Växla över vyn i Proxmox webbgränssnitt till “Datacenter” och välj sedan “Storage” så ser du vad dina lagringslösningar heter i kolumnen döpt “ID”.

Dags att starta

När du migrerat och senare importerat dina virtuella servrar är det dags att börja starta dem. I mitt fall har jag tre olika typer av virtuella maskiner: FreeBSD, CentOS 7 och Windows Server.

I fallet FreeBSD är det inte svårt att komma igång: lägg till ett nätverkskort till den importerade virtuella maskinen, se till att det är av typen VirtIO, se till att hårddisken/hårddiskarna är satt som en SCSI-hårddisk och sedan är det bara att starta den virtuella servern. Du kommer behöva redigera /etc/rc.conf och ändra namnet på nätverkskortet till vtnet0, ta bort eventuella referenser till VMware och sedan är det bara att starta om och köra vidare.

I fallet CentOS kommer den virtuella maskinen att vägra boota om du sätter hårddiskgränssnittet till något annat än IDE. Det är också det långsammaste gränssnittet och därför vill du väldans gärna kunna köra VirtIO som gränssnitt för det. Innan du startar den virtuella maskinen skapar du ett nätverkskort som du sätter som VirtIO. Därefter konfigurear du hårddiskarna som IDE, starta sedan upp den virtuella maskinen, gå in i nätverkkonfigurationen i /etc/sysconfig/network-scripts och döp först och främst om konfigurationsfilen, som innan kanske heter ifcfg-ens160 till ifcfg-eth0. Därefter öppnar du filen med en vettig editor, raderar raden med UUID-värdet och ändrar sedan dessa två värden till eth0:

NAME="eth0"
DEVICE="eth0"

Med detta klart är det dags att lösa problemet med varför din virtuella maskin inte vill boota med VirtIO som gränssnitt för diskarna:

sudo dracut --add-drivers "virtio_pci virtio_blk virtio_scsi virtio_net virtio_ring virtio" -f -v /boot/initramfs-uname -r.img uname -r

Följt av:

sudo sh -c "echo 'add_drivers+=\" virtio_pci virtio_blk virtio_scsi virtio_net virtio_ring virtio \"' >> /etc/dracut.conf"

Sedan kan du stänga ner den virtuella maskinen, avmontera hårddisken/hårddiskarna och montera upp dem igen och då välja VirtIO som gränssnitt.

Kör du Debian redigerar du filen /etc/initramfs-tools/modules och lägger till följande:

virtio
virtio-blk
virtio-ring
virtio-pci
virtio-net

Därefter kör du kommandot update-initramfs -u -v och sedan kan du stänga ner den virtuella maskinen, avmontera hårddisken/hårddiskarna och montera upp dem igen och då välja VirtIO som gränssnitt.

Windows då? Här blir det lite knepigare. Se till att alla hårddiskar är satta med IDE som gränssnitt. Skapa sedan en ny hårddisk som du kopplar till den virtuella maskinen, den kan vara en gigabyte stor eller så, som du sätter som VirtIO. Innan du startar maskinen ser du till att ha laddat ner denna ISO-fil som du gjort tillgänglig i Proxmox. Denna ISO-fil monterar du som en virtuell CD-ROM-enhet till din virtuella Windowsmaskin. När detta är gjort startar du upp maskinen.

Om du inte avinstallerat VMware Tools från servern så är det dags att göra det nu. När det är avinstallerat går du in i Device Manager, slår på visning av gömda enheter och därefter avaktiverar du eventuella andra nätverkskort som hängt med från VMware. Starta sedan om den virtuella maskinen.

Installera därefter drivrutinerna från ISO-filen med hjälp av installationsprogrammet, och installera också gästagenten som finns i samma ISO-fil. Därefter kan du konfigurera nätverkskortet med rätt IP-adress, och så vidare. Stäng sedan ned den virtuella maskinen. Slutligen avmonterar du alla hårddiskarna, monterar upp de som faktiskt hör till maskinen (du kan radera den lilla extradisken du skapade förut) med VirtIO-gränssnittet och sedan kan du starta din virtuella Windowsmaskin igen och nu ska den fungera finfint.

Övriga intryck och råd

När man går från en beprövad plattform som VMware ESXi till Proxmox och inser att ens virtuella Windowsservrar faktiskt blir snabbare på samma fysiska hårdvara och med samma inställningar i sin virtuella hårdvara så inser man snart att Proxmox och dess underliggande virtualiseringsmotor KVM sparkar stjärt. Det finns inget annat sätt att beskriva det.

10GbE

Med det sagt så är Proxmox inte bara guld och gröna skogar. Jag fick exempelvis inte kopplingen mot iSCSI att fungera ordentligt i en klusterinstallation, åtminstone inte med TrueNAS som operativsystem på lagringsenheten. Jag fick därför, akompanjerat av åtskilliga svordomar, tömma iSCSI-lagringen, radera den och köra allt via NFS istället vilket har fungerat över förväntan. Om du ändå vill köra iSCSI kan det vara värt att nämna att det inte är en vidare god ide att göra detta över en LACP-trunk där du kombinerar flera 1GbE-gränssnitt till ett enda, då iSCSI vad jag förstår inte reagerar så bra på det. I mitt fall har jag 10GbE-nätverk mellan alla servrar och min lagringsenhet varför det i kombination med NFS har fallit ut extremt väl. 10GbE-switchar är så pass billiga numera så det är varmt rekommenderat att investera i en sådan om du ska nyttja nätverksbaserad lagring, oavsett om det är iSCSI eller NFS-baserad dito.

Det finns mycket annat som jag gillar i Proxmox, som exempelvis att konsolen till de virtuella maskinerna fungerar i de allra flesta webbläsare utan att bråka det minsta. Den inbyggda backuplösningen i Proxmox fungerar också riktigt bra, vilket jag är glad för eftersom backuplösningar för virtuella maskiner i VMware ESXi kan bli en kostsam, och komplicerad, historia.

Huruvida Proxmox är “enterprise ready” som de själva säger ska jag kanske låta vara osagt, men det finns en hel del kvar att jobba på där.

Exempel på det är att en server med redan existerande virtuella maskiner i sig inte kan gå med i ett kluster – rådet från Proxmox-teamet är att ta backup på alla sina virtuella maskiner, ta bort dem från Proxmox, gå med i klustret och sedan importera dem igen. Ett annat exempel är om man kör flera fysiska maskiner i ett kluster så kan samma lagringsenhet visa olika storlek så väl som olika ledig diskyta beroende på vilken nod i klustret du tittar på detta i. Ett exempel för mig var när min NFS-lagring på ena noden i klustret var på 14TB och i den andra noden var på 400GB. Det är kanske en skitsak, men för mig blir det snabbt också en fråga om ett mindre magsår – vilken av noderna visar rätt egentligen, och, kommer något bli helt galet om man skriver data till nätverkslagringen från den nod som visar fel?

Vafan

En sak som irriterar mig rätt mycket är vad som visas i bilden ovan. Här håller jag på och live-migrerar en virtuell maskins hårddisk till en annan lagring. Samtidigt vill jag ge samma server mer internminne, men tji fick jag – pågår en operation med en virtuell maskin i Proxmox så är den låst för alla andra former av justeringar eller operationer. Det går inte ens att stänga av en virtuell maskin från det grafiska gränssnittet så länge en annan operation på samma virtuella maskin pågår. Tyvärr får man, om man verkligen vill stänga av en virtuell maskin riktigt jävla mycket, SSH:a in på Proxmox-servern och leta fram vilken process som kör den virtuella maskinen i fråga och döda den med kill -9 pid.

Proxmox kostar ingenting att använda, och med tanke på allt man faktiskt får så är det en trevlig lösning. Det är klart det vore trevligt med automatisk balansering i klustret där virtuella maskiner skickas till en viss nod i klustret beroende på belastning och lediga resurser i andra noder i samma kluster men då pratar vi inte bara VMware ESXi utan också VCenter, och det kostar ordentligt med penningar.

Det tog mig en vecka av pillande, meckande och trixande innan hela min VMware-installation med strax över 40 virtuella maskiner var migrerad till Proxmox. Jag kunde använda mig av en extra server jag har i racket som “mellanlandning” medan jag tömde min VMware ESXi-server så nedtiden för sajter och annat blev inte så jobbigt stor som jag först hade fruktat. Jag har inte, så här tredje gången gillt, ångrat bytet eller haft en jobbig känsla i magen som jag hade efter de två första försöken så jag hoppas (ta i trä, med mera) att detta kommer fungera väl i framtiden.


- = -

Spotifys Dropbox-problem

Spotify är utan tvekan ett fenomen. Sedan bolaget startades i maj 2006 har bolaget vuxit till en global gigant inom musikdistribution via Internet. 2019 hade bolaget enligt Wikipedia 4405 anställda och under tredje kvartalet 2020 hade bolaget 130 miljoner betalande användare.

Med allt det sagt borde Spotify anses vara en framgångssaga, men det är inte riktigt så enkelt. För att Spotify skulle överleva från starten för snart 15 år sedan fram till idag har det levt på främst investeringar och lånade pengar och fram till tredje kvartalet förra året hade bolaget gått med 29,3 miljarder kronor i förlust eller drygt 2,5 miljarder i förlust per år i genomsnitt från 2008 fram till tredje kvartalet 2020, och än så länge visar de inga tecken på att faktiskt gå med vinst.

Missförstå mig inte, intäkter från 130 miljoner betalande användare är inget att fnysa åt, men det är många som ska dela på de pengarna och bolaget är ännu så länge väldigt långt ifrån att ens kunna bära sina egna kostnader, än mindre visa en faktisk vinst.

Spotifys intäkter

Givetvis ökar bolagets intäkter, dels i takt med att de får fler och fler betalande användare men också genom återkommande prishöjningar. Sedan oktober förra året har bolaget exempelvis höjt priset på sitt Premium-konto, vilket medger upp till sex separata konton på en räkning, med 20 kronor per gång vilket gör att priset gått från 149 kronor till 189 kronor i månaden, 40 kronor dyrare än Apples motsvarande erbjudande för samma antal användare i ett konto genom Apple Music.

Spotifys intäkter

Spotify har på olika sätt försökt utöka sitt utbud i sin musikspelare med exempelvis poddar. Bolaget har haft poddar i många år men enskilda publicister som undertecknad och Fredrik Björeman kunde inte ansluta vår podd till tjänsten förrän till för några år sedan då Spotify plötsligt bestämde sig för att låta alla lägga till sina poddar i tjänsten. Spotify har också köpt ett par företag som arbetar med att producera poddar och på så sätt fått över en viss mängd innehåll som har kunnat göras exklusivt för Spotifys kunder. Men det är också allt som egentligen hänt, utöver att bolaget fortsatt etablera sig i nya länder och fortsatt ta in pengar från nya investerare för att överleva.

Spotifys intäkter

Antalet betalande användare av tjänsten har som synes ökat stadigt genom åren och från 2016 får man anse att tillväxten varit stadigt växande.

Ok, vad är då problemet som Spotify står inför? Börskursen ser överlag bra ut (se nedan) så “marknadens” förtroende har de ju?

Problemet är nämligen enkelt att identifiera men desto svårare att lösa : vad ska Spotify göra härnäst?

Spotifys intäkter

Givetvis kan de lägga till videomaterial, locka över kända Youtubers med miljoner prenumeranter till plattformen och betala dem väl för besväret precis som de gjort med en handfull utvalda kända poddare. Men sen då? Ska de bli en plattform för allt som rör media där även tv, film och liknande material ingår? Ska de som Apple försöka startade strömmande radiostationer?

Dropbox-problemet

Spotify har ett Dropbox-problem. Precis som Spotify är Dropbox ett företag som startade med ett problem och en lösning på detta: synka filer mellan datorer. De löste problemet med en genial lösning som under många år var geniunt uppskattad av miljontals användare, men precis som Spotify så ställdes Dropbox inför samma problem: vad ska vi göra nu? Precis som med Spotify så eldades Dropbox på av investerare som ville se fler betalande användare, högre omsättning och därmed potentiellt en högre avkastning på sin investering den dag de bestämde sig för att sälja sin andel. Inga konstigheter med det, men Dropbox var piskade att bygga ut sin enkla, geniala plattform med funktioner som få faktiskt vill ha.

Vad som en gång var en enkel lösning för att synkronisera filer har nu förvandlats till en plattform för att samarbeta med andra i olika webbaserade verktyg. Plattformen och dess erbjudande är rörig och så långt ifrån vad Dropbox en gång var som man kan komma, och numera finns det gott om alternativ, både gratis och inbyggda funktioner i form av iCloud Drive från Apple och OneDrive från Microsoft som har en tajtare integration i sina plattformar.

Steve Jobs hade rätt när han beskrev Dropbox som “en funktion, inte en produkt” – det var bara en tidsfråga innan Apple och andra bolag erbjöd samma funktion för samma, mindre eller inget pris alls.

Kanske är möjligheten att lyssna på musik över Internet på väg att bli en funktion? Apple verkar tro det – Spotifys huvudkonkurrent som öser in användare och intäkter från sina olika tjänsteerbjudanden där musik är ett av dem.

Apple insåg för länge sedan att de hade ett problem: de kommer inte kunna sälja datorer, telefoner och surfplattor i all framtid, och även om de tar fram nya produkter som säljer som glass i Saharaöknen så kommer marknaden för Apples dyra, exklusiva produkter inte att växa i den takt bolaget behöver för att kunna fortsätta leverera nya fantastiska resultat. Så de började med .Mac, som senare blev MobileMe, som senare blev iCloud. Under tiden denna transformation pågick hade Apple också börjat sälja musik via iTunes-butiken och snart sålde de också filmer och tv-serier. Snart kunde man hyra filmer och vips så hade bolaget en separat post i sin redovisning som de kort och gott kallar “tjänster”.

Apple kunde göra detta för att de hade redan ett ben att stå på i form av hårdvara (först iPod, senare iPhone, iPad, Mac, Apple watch osv) som behövde innehåll i form av bland annat musik. De kunde helt enkelt ställa ner andra benet på backen och vips så hade de tjänster och produkter. Två ben som kompletterar varandra där ett ben tar ett steg framåt och snart följer det andra benet efter.

Ett ben att stå på

Spotifys intäkter

Spotify, precis som Dropbox, står och hoppar på ett ben och det benet kommer de inte kunna hoppa på i all framtid. Det finns en smärtgräns för hur mycket kunderna vill betala för Spotifys utbud, oavsett hur mycket Daniel Ek vill maximera bolagets tillväxt. Spotifys jakt på nya betalande kunder ska betalas av de redan befintliga kunderna, och som en (numera före-detta) betalande kund är det inte vad man vill höra, eller inse.

Jag tror inte Spotify kommer försvinna imorgon. De har överlevt i snart 15 år men i takt med att bolaget fortsätter försöka växa och bli ännu större så har de också en utmaning i att inte tappa de tre faktorer som tog dem dit de är idag: skivbolagen, investerarna och kunderna.


- = -

© 2000 - 2025 Joakim Melin.