Joakim Melin

50

Undertecknad anno år 2002 och år 2023 Undertecknad anno år 2002 på Datormagazins redaktion, och hösten 2023 på en tjänsteresa till Malå

Då var man där till slut. 50 år gammal.

Nej, det är inte som att livet är slut. Långt därifrån. Istället är det dags för bokslut på vad som förhoppningsvis är första halvan av mitt liv. Se tillbaka, fundera och reflektera. Något händer i den här åldern, åtminstone för mig. Tiden går snabbare, men det känns också som att jag tillåter mig själv att ta mig tid till att fundera igenom saker mer. Det känns bra.

Blev mitt liv så här långt som jag förväntat mig eller åtminstone kanske vågat hoppas på? Nej, inte alls. Inte i närheten. Det faktiskt bättre på de flesta sätt, sämre på ett par få. Men vägen till den punkt där jag är nu har varit lång och inte alltid särskilt enkel. Det har kostat på, som man brukar säga. Men det har varit värt det.

En del personer är oerhört upptagna med att definiera sig själva utifrån sina synbara framgångar: en stilig partner, en vältränad kropp, ett fantastiskt hus, spännande jobb, dyra bilar på uppfarten, och så vidare. Jag antar att jag har åldern att tacka för en ökad “visdom” när det gäller detta. Jag bryr mig inte längre om vad jag har för prylar, om min bil är cool i andras ögon, om jag har kläder med “rätt” märken, och så vidare. Det intresserar mig inte. Om jag är nöjd så räcker det för mig.

Ibland kan jag önska att jag hade haft energi till att plugga på universitet. Att jag hade fått göra lumpen. Att jag lärt mig spela trummor ordentligt. Att jag hade lärt mig programmera. Jag hade velat lära mig montera in en vedspis och skorsten på egen hand, blanda och gjuta betong, bygga mitt egna lilla hem på egen mark uppe i norrland, renovera en Jeep Cherokee, ta jaktlicens, bli mer vältränad och orka springa en liten bit utan att det känns som bröstkorgen ska explodera. Det finns ännu massor med tid till att testa nya grejer och skaffa nya kunskaper. Livet är ju inte slut på något sätt utan detta är ett nytt kapitel i det.

Jag har varit med och sätta fyra underbara barn till världen, varit gift två gånger med underbara och intelligenta kvinnor vilka jag är vän med än idag. Jag lägger mycket av min energi på mina fyra barn, två som står med ena foten i tonåren och två som är vuxna och utflugna. Om det är något jag vill bli ihågkommen för så är det mina barn. Inget annat spelar någon roll.

Jag ägnar mig åt min familj och mina vänner, en liten podd med två vänner jag är med i varje vecka, och åt jobbet för att jag tycker det är stimulerande, intressant och förbaskat roligt tack vare mina fantastiska kollegor. Jag är med mina två yngsta barn när de är hos mig varannan vecka. Jag städar, tvättar, handlar mat. tar hand om disken, lagar mat och bakar, läser och ser på hockey på tv. Resten av tiden är jag ensam.

Det är precis lagom, och det är okej.

Dags för OPNSense och snabbare router

För drygt två år sedan köpte jag en router, en Atom N2600-baserad produkt med fyra gigabit ethernet-anslutningar. Målet var att bygga en helt fläktlös router som skulle placeras i mitt vardagsrum i min nya lägenhet där jag inte bara tittade på teve utan också jobbade hela dagarna. Om det är något jag absolut hatar så är det just fläktljud, nämligen. Den här routern, som inte länge verkar finnas att köpa på AliExpress där jag köpte min, levererades med en strömadapter, en Intel Atom N2600-processor, två gigabyte internminne och en SSD på 16 gigabyte - med andra ord perfekt för att köra PFsense på, i synnerhet med tanke på att min dåvarande internetanslutning från Ownit låg på 250/250Mbit.

Spola framåt två år så har jag numera en gigabit-anslutning till Internet. Barnens spelande och mitt hemarbete gör att min 250Mbit/s internetanslutning ibland inte orkade med. Routern hade också fått en del problem med att orka med att jag körde en statisk IPSEC VPN-anslutning till mina servrar i Finland. Att köra routern utan en fläkt funkade, förutsatt att man tog av locket på den men även då blev den varm - det var sällan temperaturen låg på under 60 grader. Spiken i kistan kom när jag uppgraderade min internetanslutning till 1Gbit.

Min gamla router orkade helt enkelt inte med att skyffla de hastigheter jag hade möjlighet till så jag skaffade en Dream Router från Unifi istället. Dream Routern har en galet snygg design som inte står Apple långt efter, verkligen många trevliga funktioner och detta blandat ett trevligt administrativt gränsnitt. Att sätta upp VPN via IPSEC till mina servrar i Finland var verkligen inte enkelt (läs: jag lyckades inte få det att fungera) och Dream Routern hade utöver detta två problem: den orkade inte med mer än 600-700Mbit/s i respektive riktning (vilket jag visste om) och den hade en inbyggd fläkt som, när det blev varmt i mitt vardagsrum under sommarhalvåret, började låta konstant. Jag gillar som bekant inte fläktar. Jag testade att slå av funktioner i Dream Routern för att på så sätt minska på systembelastningen, men det hjälpte inte. Jag började göra resarch och det fanns de som hittat metoder att styra fläktens styrkrets genom allehanda script men det fungerade inte med den firmware-version jag körde då. Det fanns heller inget sätt att ställa in att Dream Routerns fläkt skulle snurra med ett konstant varvtal utan istället växlade detta upp och ned var tionde sekund. Galet irriterande.

Att Dream Router själv tyckte sig klara av över 900Mbit/s (se bild ovan) var ju trevligt men det var innan den inbyggda pakethanteringen med brandvägg och annat drogs igång:

Kort sagt: Dream Router har inte en tillräckligt kraftfull CPU för att hantera datatrafik i den hastigheten och den har nu blivit en ganska dyr accesspunkt för mitt wifi-6-nätverk hemma.

Jag återvände därför till tanken på att köra PFSense. Denna tanke växte sedan till att byta ut PFsense mot OPNSense. I november inföll Black Friday, Cyber Week och allt vad det nu hette och med det rätt intressanta priser på allehanda saker hos allehanda återförsäljare och ett så-kallat köpläge infann sig.

Den nya routern

Vad är det då jag köpt? Den här modellen kan finnas under olika namn, min heter J4125 Industrial PC, med lätt varierande utseende men i grund och botten är det samma grejer. Den kan köpas med en rad olika konfigurationsmöjligheter, från inget internminne och ingen lagring till 16 gigabyte internminne och 512 gigabyte SSD-baserad lagring. Jag valde det billigaste: åtta gigabyte internminne och 128 gigabyte lagring. Jag valde också att köpa den billigaste processorn, en Intel N4000 Celeron-baserad dito och fyra 2,5Gbit nätverksportar. Köpet gjordes den 28:e november 2023 och idag, den 2:a januari 2024, kom paketet till min dörr från en snäll brevbärare på Postnord. Ingen tullavgift krävdes eftersom AliExpress tycks skicka paketen till Tyskland eller Holland och där packa om dem och sedan skicka dem till Sverige, vilket sannolikt fördröjde leveransen av paketet en vecka eller så (utlovat leveransdatum var för övrigt den 24/12 2023…).

Till skillnad från andra inköp som ibland kan komma från höften när undertecknad får för sig att köpa saker så gjorde jag rejält med research innan jag tryckte på “köp”-knappen den här gången. Det lästes på, det sågs på Youtube-filmer och slutligen så kom jag fram till att detta var ett vettigt köp. Det enda som kunde vara ett problem då, men som inte längre är det, var att PFsense inte stödde de 2,5Gbit-nätverkskort som sitter i denna brandvägg då PFsense tidigare kördes på en äldre version av FreeBSD. I och med PFsense version 2.7 så är detta inte ett problem längre men jag tänkte att jag ändå skulle byta operativsystem i min router till OPNSense så jag gjorde just det.

Tack vare att OPNSense och PFsense är hyfsat lika varandra tog det inte lång tid för mig att mata in alla inställningar i OPNSense från PFsense och sedan gjordes bytet. Det var klart på någon minut och min nya router är igång.

Hur kan man då jämföra de två routrarna, utöver det faktum att den nya dito är just nyare?

CPU temp. CPU-last Hastighet upp, BBK Hastighet ned, BBK Hastighet upp, ST Hastighet ned, ST
Gammal router 59 grader 40% 567 Mbit/s 492 Mbit/s 593 Mbit/s 518 Mbit/s
Ny router 34 grader 10% 923 Mbit/s 949 MBit/s 940 Mbit/s 939 Mbit/s

BBK = Bredbandskollen. ST = Speedtest.net

Värt att notera när det gäller CPU-temperaturen: på den nya routern kör jag exakt samma regler för NAT, portforward och så vidare, samma IPSEC-konfiguration, samma tjänster (DHCP-server på tre nät, agentmjukvara för Zabbix och en plugin för dynamisk DNS). Som bonus kan jag köra den nya routern med locket på, vilket ju är trevligt då routern inte behöver dammsugas regelbundet.

Den router jag nu bytt till kostade 1631 kronor inklusive frakt hos AliExpress, medan den ursprungliga routern för två år sedan kostade 1545 kronor inklusive frakt hos samma återförsäljare. För 1631 kronor är denna router ett fynd, om man åsidosätter dess ganska fula utseende. Huruvida den skulle orka med snabbare anslutningar till Internet än 1Gbit/s låter jag vara osagt. Köper du en kan det vara bra att veta att återförsäljaren förinstallerar PFsense på SSD-disken (om du köper till en sådan) och du gör rätt i att radera denna installation omedelbums och börja om från början, oavsett vilket operativsystem du avser köra på denna lilla dator i framtiden.

Så fungerar min BBS

Detta är en bloggpost som få, om ens några, kan ha något som helst intresse av att läsa. Det handlar om min BBS och hur den är uppkopplad till Internet, till Usenet och till Fidonet. Bland annat.

Jag skriver detta mest för mig själv så jag kommer ihåg hur allt detta hänger ihop nästa gång något rasar, men vill du hänga med på årets kanske djupaste navelskådning inom teknik som uppfanns för ~30 år sedan, och som fortfarande går att använda, så är du välkommen.

Jag startade min första BBS i början på 90-talet. Jag sålde min Amiga 500 och köpte en 286:a på tolv eller 16 megahertz (beroende på om turboknappen var intryckt eller inte), fyra megabyte internminne och en ATA-hårddisk på 44 megabyte (ATA var en tidig version av IDE).

Faksimil ur Datormagazin nummer 11, 1991

Tanken var att spara pengar och köpa en Amiga igen men Commodore hann gå i konkurs så det blev inget med den saken. Min BBS gick igenom en rad olika BBS-system eftersom jag, givetvis, inte kunde bestämma mig men till slut så landade jag med systemet Mikrokom, skrivet av Carl Sundbom som också drev BBS:en Chaos.

Drömmen var givetvis att kunna köra en riktigt stor BBS, som Söderkom som drevs med Sklaffkom och hade tre telefonlinjer. Jag testade faktiskt att köra min BBS på just Sklaffkom i mitten på 90-talet men det var väldigt “sklaffigt” och fungerade inget vidare med Linux så jag gav upp BBS-drömmen…. fram till 2015 då jag faktiskt hade köpt en Amiga 1200 ett tiotal år tidigare och bestämt mig för att köra en BBS igen. Inte byggd på Sklaffkom, vilket kanske hade varit enklare, utan på ett system vid namn NiKom.

Mina döttrar inspekterar min Amiga 1200 cirka 2004. Undertecknad övervakar.

Att ha en modemlina till sin BBS var passé vid den tidpunkten, och det var kanske också att ha en BBS men jag tänkte att det kunde vara kul att testa så ett par inköp senare så hade jag nätverkskort, hårddisk och annat roligt till min Amiga 1200.

I slutet på 80-talet och början på 90-talet hette min BBS “New Detroit”, efter staden de skulle ersätta gamla Detroit med i filmen Robocop. Men när jag döpte min BBS då så hade jag ju missuppfattat ett och annat - det var ju “Delta City” staden skulle heta och jag tänkte att jag skulle ta tillfället i akt och rätta till det så min BBS fick denna gång heta Delta City.

Fidonet

Det mesta avlöpte ganska bra tills jag bestämde mig för att koppla upp den till Fidonet. Jo, Fidonet existerar faktiskt fortfarande, och även om jag inte var medveten om i hur dåligt skick nätverket var, och är, så gav jag mig den på att ansluta min BBS. Detta visade sig dock vara en aning mer komplicerat än när jag höll på med det 25 år tidigare, och då tänker jag inte ens gå in på hur bökigt det var att ens ett nodnummer i Fidonet registrerat.

Kommunikationen mellan noderna i nätverket gick över Internet, och även om NiKom i sig hade ett riktigt bra stöd för just Fidonet och andra nätverk baserat på samma teknik som Fidonet så behövdes fler programvaror, som en “mailer” och en “tosser”.

I fallet “mailer” så fanns det bara ett alternativ: Binkd. Namnet kan låta bekant för de som var med på BBS-tiden under 80- och 90-talet: det fanns nämligen en mailer kallad Binkleyterm som delar av Binkd baseras på. Binkd är byggt för att köras över Internet och har över 25 år på nacken men det fungerar faktiskt fortfarande utmärkt. det vill säga om du kör det på en PC med Windows eller Linux. Det finns också ett antal porteringar av Binkd till Amigan men de fungerade riktigt dåligt och tenderade att krascha hela datorn lite då och då.

Sagt och gjort - jag satte upp en virtuell Linux-maskin som fick köra Binkd, som fortfarande finns i Ubuntus apt-repo. Problemet löst? Nja - det behövs en “tosser” också. En tosser är programvaran som tar de paket med meddelanden som kommit in, packar upp dem och placerar dem på rätt ställe så BBS-mjukvaran sedan kan importera dem.

Men, BBS:en körs ju på en Amiga, kanske ni tänker? Jajjemen - så jag installerade en NFS-mjukvara på min Amiga 1200 och vips så kunde den montera upp en katalog utdelad via NFS för att komma åt meddelandefilerna, som hanterades av en alldeles lysande programvara kallad Crashmail (skriven av svensken Johan Billing, för övrigt). Mer om det strax.

Big endian och little endian

Samtidigt uppstod problem med att låta Crashmail på min Amiga importera och exportera meddelandefiler till den via NFS utdelade katalogen (vilket berodde på att nätverksstacken på Amigan och NFS-implementationen gjorde i byxan när det handlade om större mängder filer) så jag snokade reda på en Linuxversion av Crashmail kallad Crashmail II (som fortfarande finns i bland annat Ubuntu:s apt-repo) och lät den skyffla alla meddelandefiler till rätt plats.

Efter en rejäl inlärningskurva så kunde man tro att problemet var löst? Nja, inte riktigt. Problemet låg i det som brukar kallas “big endian” och “little endian”, (väldigt) enkelt uttryckt i vilken ordning datorer skriver innehåll till minnet, och inte har någonting (mig veterligen) med den amerikanska urbefolkningen att göra. I NiKoms fall handlade det om att 16-bitarsvärden i meddelandefiler baserade på Fidonet-tekniken (.msg-formatet) skrevs i big endian, vilket fungerade bra med Amiga-baserade tossers som Crashmail, medan det i x86-världen användes little endian.

I version 2.1.2 av NiKom fixade Niklas Lindholm problemet med de två endianerna och vips så kunde jag använda Binkd och Crashmail II på Linux och NiKom på min Amiga 1200.

Fler nätverk

Snart upptäckte jag att det fanns fler meddelandenätverk än Fidonet. Amiganet, SFnet, Retronet och FSXNet är några av dem, och till råga på allt så upptäckte jag också att jag ju via ett av dessa nätverk också få in hundratals newsgrupper från gamla Usenet. Då uppstod raskt nästa problem: att få Binkd och Crashmail II att acceptera dessa.

Crashmail II var förberett för att hantera flera olika nätverk. NiKom var det till viss gräns - det kunde hantera flera olika nätverk för vanliga meddelandefiler men för netmail, Fidonets motsvarighet till e-post, så var det en annan pilsner. Niklas Lindholm är dock inte den som är den utan löste problemet i version 2.5.0 av NiKom där man helt sonika kunde konfigurera BBS-programvaran så den kunde skriva utgående netmail till olika filkataloger beroende på vilket nätverk den skulle till. Man definierade först vilka nätverk BBS:en tillhör:

DOMAIN 1 FidoNet 2:221:242.0 1: 2: 3: 4: 5: 6:
DOMAIN 2 AmigaNet 39:160/242.0 39:
DOMAIN 3 FSXNet 21:2/130.0 21:

Därefter definierar man katalogerna för netmail beroende på nätverk:

MATRIXDIR=fido:netmailfido 1: 2: 3: 4: 5: 6: 
MATRIXDIR=fido:netmailamy 39:
MATRIXDIR=fido:netmailfsx 21:

Genialt utformat faktiskt.

I Crashmail II så skapade man motsvarande kataloger i konfigurationsfilen:

NETMAIL "NETMAIL" 2:221/242.0 MSG /fido/mail/netmailfido LATIN-1 DEFAULT
NETMAIL "NETMAIL_AMY" 39:160/242.0 MSG /fido/mail/netmailamy LATIN-1 DEFAULT
NETMAIL "NETMAIL_FSX" 21:2/130.0 MSG /fido/mail/netmailfsx LATIN-1 DEFAULT

Givetvis måste man också definiera nodnummer för de olika nätverken samt var utgående meddelanden ska routas. Detta beskrivs rätt bra i dokumentationen men för den som vill se exempel så ser det ut som följer. Först nodnumren:

NODE 2:221/1.0 "" "" PACKNETMAIL AUTOADD CRASH
NODE 2:221/242.0 "" "" AUTOADD
NODE 39:150/200.0 "" "" PACKNETMAIL AUTOADD CRASH
NODE 39:160/242.0 "" "" AUTOADD
NODE 21:2/100.0 "" "" PACKNETMAIL AUTOADD CRASH
NODE 21:2/130.0 "" "" AUTOADD

Exempelvis så är 2:221/1.0 min “hubb” för Fidonet, och jag måste även definiera mitt egna nodnummer, 2:221/242.0 för att Crashmail II ska ta emot paket till mitt egna system också.

Resten löser man med routingtabellen:

ROUTE 2:*/*.* 2:221/1.0 2:221/242.0
ROUTE 1:*/*.* 2:221/1.0 2:221/242.0
ROUTE 3:*/*.* 2:221/1.0 2:221/242.0
ROUTE 4:*/*.* 2:221/1.0 2:221/242.0
ROUTE 5:*/*.* 2:221/1.0 2:221/242.0
ROUTE 6:*/*.* 2:221/1.0 2:221/242.0
ROUTE 39:*/*.* 39:150/200.0 39:160/242.0
ROUTE 21:*/*.* 21:2/100.0 21:2/130.0

Här måste man tala om för Crashmail II att den också ska routa inkommande meddelanden till mitt egna system utöver var utgående meddelanden ska skickas.

Hur som haver - i Crashmail II så definierar man var all utgående post ska läggas med en enda rad:

OUTBOUND /fido/outbound/

Klart!

Det fungerar ju för bövelen fortfarande inte

Ser ju enkelt ut va? Det är det inte. För det fungerar inte.

Crashmail II kan importera meddelanden utan problem, men när samma programvara ska exportera ut meddelanden så skapar den två filer: en paketfil och en fil som talar om för Binkd vilka paketfiler som ska skickas. Den senare filen initierar Binkd som i sin tur då kopplar upp sig och skickar över meddelandefilerna till mottagande system över Internet. Paketet med meddelandefilerna hamnar där det ska, men filen som initierar överföringen, som egentligen ska hamna i /fido/outboundhamnar istället i exempelvis /fido/Fsxnet.015. Där tittar givetvis inte Binkd eftersom man sagt åt Binkd att alla utgående filer för alla nätverk man är medlem i ska ligga i /fido/outbound. Det är ju trots allt det mest logiska. Det är dock få saker som faktiskt är logiska i den här världen - låt mig förklara.

Det finns ett antal olika format, eller sätt, att definiera en adress i exempelvis Fidonet (det är samma sak som med standarder: det fina är att det finns så många av dem…): 3D, 4D och 5D. Crashmail II stödjer 4D, medan Binkd antar att man använder sig av 5D. I dokumentationen för Binkd finns följande att läsa:

 If your tosser would create bundles for omeganet in the omeganet
directory then you should write as indicated above. But since it does not
work with 5D and it creates the bundles in fidonet.00b then you should
write this way:

    domain fidonet c:\\ftn\\outbound\\fidonet 2
    domain omeganet c:\\ftn\\outbound\\fidonet 2
    address 2:5070/222@fidonet 11:58/6@omeganet

    It is obligatory to configure all your addresses with domains. The
outbound directory and the path should be the same everywhere (4D tosser
considers all addresses to belong to one domain).

Glasklart? Dokumentationen är, åtminstone delvis, skriven av ryssar som sedan översatt den till ganska knacklig engelska men den här delen är ju ganska tydlig kan man tycka. Istället för att skriva så här som jag initialt gjorde i binkd.cfg:

domain fidonet /fido/outbound 2
domain fido alias-for fidonet 
domain fidonet.org alias-for fidonet
domain amiganet /fido/outbound 39
domain fsxnet /fido/outbound 21

… så ska man skriva så här istället:

domain fidonet /fido/outbound 2
domain fido alias-for fidonet
domain fidonet.org alias-for fidonet
domain amiganet /fido/Amiganet 2
domain fsxnet /fido/Fsxnet 2

Det stora mysteriet är hur Binkd fattar att den ska titta i /fido/Fsxnet.015 när jag angett /fido/Fsxnet i konfigurationsfilen för Binkd, för det tog mig ett antal timmar att fatta att det är Crashmail som skapar /fido/Fsxnet.015-katalogen och placerar filen som initiererar överföringen däri och eftersom man inte kan ange just /fido/Fsxnet.015 i konfigurationsfilen för Binkd så blev förvirringen ännu större.

Sedan ett år eller så tillbaka så har Amiga-hårdvaran övergivits för en emulerad dito under Windows 10 och WinUAE. Det har fördelen att jag kan montera katalogen med alla meddelandefiler över Samba till min Unraid-maskin, och samma katalog är sedan utdelad via NFS till Linuxmaskinen som kör Crashmail II och Binkd.

Via ett litet fulhackat script av undertecknad körs uppdateringen av de Fido-baserade nätverken varannan minut. Var 15:e minut sker import och export av meddelanden medelst Crashmail II som startas av Crontab på Linuxservern:

*/15 * * * * /usr/bin/crashmail toss settings /etc/binkd/crashmail.prefs >/dev/null 2>&1
*/15 * * * * /usr/bin/crashmail scan settings /etc/binkd/crashmail.prefs >/dev/null 2>&1

Hur som helst - det var det hela. Nu kan jag, och även du om du vill, delta i Usenet-grupper via min BBS och njuta av ändlösa gräl, oerhört genomarbetade signaturer och allt annat som eventuellt gör livet lite mer värt att leva.

Ytterligare äventyr med Unraid

Min installation av Unraid har tuffat på i snart en månad utan större missöden. Det finns givetvis saker som kunde varit bättre, som exempelvis det faktum att om man vill ta bort en hårddisk ur systemet utan att ersätta den med en annan (rekommenderas inte om du saknar en paritetsdisk) så måste man blåsa hela konfigurationen och börja om från början igen med att mappa upp vilka diskar som gör vad. Lite bökigt men det går att leva med.

En sak som däremot har retat mig enormt är den oerhört usla skrivprestandan över SMB-protokollet från min Mac. Ja, det är sannolikt Apple och macOS som är skurken i detta lilla drama och inte Unraid, men jag satte mig ned och började pilla med det och efter en del testande (och sökande på interwebzen) så har jag en konfiguration som erbjuder betydligt bättre prestanda än tidigare.

Det första du ska göra är att stoppa din array. Därefter går du in i Settings -> SMB och i fältet för SMB EXTRASklistrar du in följande:

aio read size = 1
aio write size = 1
strict locking = No
use sendfile = No
server multi channel support = Yes
readdir_attr:aapl_rsize = no
readdir_attr:aapl_finder_info = no
readdir_attr:aapl_max_access = no
fruit:posix_rename = yes
fruit:metadata = stream

Gränssnittet kan lura dig i att tro att du endast kan lägga in en rad där men det går att pejsta in flera.

Därefter skapar du en fil på din Mac (jag kör macOS v14.1.2 “Sonoma” när detta skrivs) vid namn /etc/nsmb.conf (görs med exempelvis sudo nano /etc/nsmb.conf) och häller in följande:

# /etc/nsmb.conf - macOS 11.3+
#-----------------------------------------------------------------------------
# Additional information:
# -----------------------
# https://support.apple.com/de-de/HT211927
# https://support.apple.com/en-us/HT208209
# https://apple.stackexchange.com/questions/309016/smb-share-deadlocks-since-high-sierra
# https://photographylife.com/afp-vs-nfs-vs-smb-performance
# https://support.apple.com/de-de/HT212277
# https://www.synoforum.com/threads/mac-clients-smb-cache-issues.7009/page-3
# UnRaid SMB extra configurations:
# https://wiki.samba.org/index.php/Configure_Samba_to_Work_Better_with_Mac_OS_X
# https://www.samba.org/samba/docs/current/man-html/vfs_fruit.8.html
#
# To speed up SMB file browsing, you can prevent macOS from reading .DS_Store files on
# SMB shares. This makes the Finder use only basic information to immediately display
# each folder's contents in alphanumeric order.
# defaults write com.apple.desktopservices DSDontWriteNetworkStores -bool TRUE
# log out of your macOS account and log back in to apply
#------------------------------------------------------------------------------
 
# Use NTFS streams if supported (Macs use two streams per file - ADS or "multi-fork")
streams=yes
 
# Set hard or soft mount of shares
# Hard mount: a request is issued repeatedly until the request is satisfied
# Soft mount: tried until completed, the retry limit is met or the timeout limit is met
# Soft mount by default
soft=yes
 
# Disable packet signing to improve performance as no security issue on secure (non-infiltrated) network.
# Note this is off by default from macOS 10.13.4 onwards although this is ambiguous (Apple HT205926)
signing_required=no
 
# Disable directory caching (ensures Finder folder contents display is up to date)
dir_cache_off=yes
 
# Disable local SMB caching
# Can be set and then unset to clear SMB cache
dir_cache_max_cnt=0
 
# Ensure desired SMB level and prevent SMB 1 (Apple HT211927)
# Lock negotiation to SMB2/3 only
# 7 == 0111  SMB 1/2/3 should be enabled
# 6 == 0110  SMB 2/3 should be enabled
# 4 == 0100  SMB 3 should be enabled
protocol_vers_map=6
 
# No SMB1 = no NetBIOS (WINS) and it should be disabled
port445=no_netbios
 
# Turn off change notifications (Finder maintains folder list integrity)
# notify_off=yes
 
# SMB Multichannel behaviour (Apple HT212277)
# Disable multichannel support because only one wired network connection
mc_on=yes
 
# Prefer wired networks over Wi-Fi networks that may advertise faster speeds than appropriate
mc_prefer_wired=yes

Du behöver logga ut från ditt konto på din Mac och logga in igen för att inställningarna ska aktiveras.

Det var väl det hela. Det har hjälpt för mig och hoppas det gör det för dig också!

Vidare äventyr med Unraid

Unraid

Efter min lyckade och samtidigt misslyckade första installation av Unraid så rev jag hela systemet, stoppade i ytterligare tre SSD-diskar och satte sedan igång med att bygga min array på rätt sätt. Det rätta sättet var enligt vad jag kunde läsa mig till detta: ZFS eller btrfs för array:en där datat lagras, ZFS för den eller de diskar man vill använda som cache och paritetsdisken ska vara en SSD-disk som är minst lika stor som den största disken i din array. Så jag tänkte att ZFS är väl en bra väg att gå och satte därmed igång med att bygga det hela.

Unraid filsystem

Unraid är hyfsat ologiskt när det gäller att bygga en array, i synnerhet när det gäller just vilket filsystem man ska välja. Man kan välja att lägga till diskarna till en array och startar man sedan denna array så väljer Unraid själv vilket filsystem som körs, vilket i praktiken innebär XFS som vad jag förstår närmast är standard i Unraid.

Man måste därför klicka in sig på varje disk och sätta ZFS som filsystem. Inte helt logiskt som sagt men när man väl vet det så är det ingen ko på isen direkt.

Unraids implementation av ZFS är inte mer logisk. I Freenas man kan sätta cache och logg-diskar för en volym men i Unraid så kan man välja en cachedisk och sedan en paritetsdisk. Vad man ska med en paritetsdisk till när man samtidigt har valt raid-z 1 eller 2 som uppsättning för ZFS, vilket alltså innebär att man kan tappa en eller två diskar i sin volym utan att förlora data, är för mig obegripligt.

Unraid med ZFS

Men låt gå då - jag satte upp det hela enligt den modellen: ZFS med raid-z 1 och en paritetsdisk och sedan formatterades diskarna och pang så var det klart. Två saker noterade jag omedelbart: ZFS åt upp i princip allt av de 20 gigabyte internminne som sitter i NAS-datorn (kanske inte helt oväntat men Freenas har ett bra sätt att balansera det där - Unraid verkar inte besitta samma egenskaper), och min NAS-dator gick oerhört långsamt. Kanske hade det gått snabbare med en cachedisk men på något sätt är jag en aning skeptisk till det, utan att kunna ta på varför.

Jag satte därefter igång med att tanka över de över två terabyte data som ska lagras på den och noterade snart att den hade problem med vissa filnamn, prestanda och… vips så kraschade Unraid.

Unraid med ZFS

Så jag började läsa på ännu mer. Efter ett par timmars studerande och funderande så kom jag fram till följande konfiguration: sex stycken 1TB SSD-diskar i min array, en 1TB SSD-disk för paritet och 500 gigabyte SSD-disk för cache. Jag satte cachedisken till ZFS och arraydiskarna till XFS.

Unraid med ZFS

Efter att jag byggt upp denna konfiguration så formligen flyger lagringen fram. Dock kan man bli lite smått ledsen på tiden det tar att bygga en ny paritetsdisk men det är knappast Unraids fel.

Unraid med ZFS

Inga krascher har inträffat och de Docker-baserade applikationer jag installerat fungerar också utmärkt. Här skiljer sig Unraid väldigt mycket mot exempelvis Truenas. Kanske är det en indikation på att Unraid främst vänder sig till hobbyister och hemanvändare medan Truenas siktar lite högre upp i “näringskedjan” för i Unraid så finns det i princip allt i form av “plugins” som körs som kontainrar under Docker. Man kan också köra virtuella maskiner under Unraid (jag har inte testat det ännu men gissar att det baseras på Qemu eller liknande då virtio-drivrutiner ska användas för Windows-baserade virtuella maskiner).

Jag får acceptera att jag inte har TRIM-stöd för mina SSD:er när jag använder XFS, men med tanke på hur billigt det är med SSD-diskar på en terabyte nu för tiden kan jag nog leva med det.

När detta skrivs är det drygt två dygn kvar på Unraids “Cyber Weekend Sale” där de erbjuder 10 procents rabatt på alla licenser. Unraid är till skillnad mot Truenas inte gratis utan kostar pengar men det är en engångskostnad och man kan provköra Unraid utan att betala i åtminstone en månad utan problem så är du nyfiken rekommenderar jag att du tar en titt.

Äventyr med Unraid

Unraid

Efter att ha använt Truenas i närmare ett år så kom jag till ett par slutsatser. Det första är att jag blivit galet trött på att lyssna på fyra stycken 4TB-diskar snurra och knattra. Det andra är att äldre hårddiskar, som de nyss nämnda 4TB-diskarna, inte är en bra ide att köra med Truenas och ZFS då det verkar ta livet av dem i en hyfsat hög hastighet. Låt vara att detta var gamla Seagate “Enterprise”-diskar på 4TB vardera som redan hade ett antal år på nacken, men under det dryga året jag kört denna lösning så har jag fått kasta fyra diskar som packat ihop.

Detta kombinerat med att jag var nyfiken på en annan lösning gjorde att jag grävde djupt i plånboken, köpte mig ytterligare ett antal SSD-diskar och smackade ihop en “ny” maskin med åtta 1TB SSD-diskar, 20GB RAM och en AMD Ryzen 5 2400G-processor som numera kör Unraid.

Resan var dock inte helt smärtfri för att komma dit.

När jag började bygga min Unraid-maskin hade jag nämligen bara fyra SSD-diskar. Eftersom jag gjorde som jag brukar göra så läste jag givetvis ingen dokumentation utan laddade ned verktyget för att skapa en USB-sticka för Unraid och sen satte jag igång.

Unraid skiljer sig nämligen från Truenas på många sätt, och ett av dessa är att Unraid inte går att installera på en hårddisk. Det är byggt för att boota från en USB-sticka. Det är ju inget problem om man väljer en bra USB-sticka som inte redan har raderats 511 gånger (jag kommer till det senare). Tanken med USB-stickan är inte så dum som den kan låta - eftersom man betalar för Unraid så kan man också lätt flytta systemet med USB-stickan till en annan maskin om man vill använda systemet där istället.

Jag satte igång att skapa en array baserad på filsystemet XFS. Det verkade som standardinstallationen så jag valde det och vips så hade jag en array på 4TB (4 x 1TB SSD). Detta var mitt första misstag.

Mitt andra misstag var jag inte läste på om behovet av en paritetsdisk. Eftersom XFS inte är ett RAID-system, eller på något sätt erbjuder någon form av redudans utan just en paritetsdisk, så är det sistnämnda inte ett önskemål, det är ett krav.

Mitt tredje misstag var att välja just XFS. Unraid gör en stor affär av att man kan putta i vilka hårddiskar man vill i sitt system och vips så har man en NAS. Det är förvisso sant, men om man väljer XFS kan man i efterhand inte expandera sin array. Unraid skriver själva på sin blogg att det bara är att expandera, men det är i mitt tycke en aning luddigt:

“Unraid’s native XFS or BTRFS file systems deliver good read speeds for most media server users.

The array is readily expandable (an essential consideration for you media data hoarders out there as your collections grow!)”

Detta faktum upptäckte jag efter att jag köpt ytterligare tre SSD-diskar på 1TB vardera, tre för data och en för paritet.

disksetup i Unraid

Mitt fjärde misstag var samma som mitt tredje: att välja XFS. Unraid är nämligen egentligen byggt för att använda sig av vanliga hårddiskar. Man kan, om man kör XFS, använda SSD:er för cache, men det är inte rekommenderat att man bygger en vanlig array baserad på XFS om man använder enbart SSD:er. Detta beror på att Unraid inte stödjer TRIM när man använder XFS (använder man btrfs eller zfs så är detta inte ett problem). Har man en cachedisk inlagd i sin XFS-array så kan man köra trim på den, men inte övriga diskar i array:en.

Vad är då lösningen? Jag fick tömma hela min array på data, radera den och sedan skapa en ny array baserad på btrfs eller zfs.

Mitt femte misstag var att jag valde ett äldre USB-minne att boota från. Det är nämligen så att även om Unraid inte skriver loggar och annat till USB-minnet så lagrar den en hel del väldigt viktig information om systemet, i synnerhet information om dina diskar, din licens, din array, konfiguration, och så vidare. I mitt fall så visade sig problemet med USB-minnet inte förrän jag startade om systemet och det inte gick att starta från det längre.

Jag försökte läsa ut information från USB-minnet men partitionstabellen var rökt och de filer som jag faktiskte behövde var korrupta. Så jag fick börja om med ett nytt, i alla bemärkelser, USB-minne och koppla ur mina tre nya diskar. Efter det var det inte svårare än att lägga till de fyra diskar jag redan hade och vips så var min array tillbaka. Till och mina Docker-containrar bara fungerade utan vidare. Hade jag däremot haft en paritetsdisk och inte vetat vilken disk det var så hade jag haft betydligt större problem.

Lösningen på detta är att ta regelbunden backup på konfigurationen - det finns en funktion för detta i det för övrigt riktigt trevliga webbgränssnittet. Varför USB-minnet avled? Vem vet - det kanske inte var byggt för att vara inkopplat dygnet runt.

Detta är en första bloggpost av mina intryck av Unraid. I del två reder jag ut hur en fungerande konfiguration, med sina fördelar och nackdelar, ser ut.

Datormagazin Retro #7: boka ditt nummer idag!

Nog för att en Mac eller iPad är rolig. Eller kanske till och med en PC. Men ibland är det senaste inte riktigt vad själen behöver. Ibland behöver man få frossa i forntiden, i det som var (för allt var ju bättre förr, som alla vet). Det är för såna som dig som vi gör tidningen Datormagazin Retro och nu är det dags för vårt sjunde nummer!

Som vanligt kommer tidningen vara fullpackad med intressant och rolig läsning, och här är några artikelideér vi surrat om under planeringen:

  • Historien om Dune 2
  • Vi besöker Embracer Games Archive
  • Programmera mera på C128
  • Världens mest sällsynta Amiga
  • Giana Sisters vs. Super Mario Bros
  • Demodags
  • Backchat med Brad S
  • Expertens bästa tips
  • … och mycket mer

Glid över till Datormagazin Retros kampanjsajt omedelbums och spana in de fina paketen som erbjuds. Ju snabbare vi har 1000 förbeställningar, desto snabbare kommer tidningen levereras.

Cloudflare-tunnel och Wordpress

Då jag kör alla mina webbsajter, och även poddens dito, via tunnlar hos Cloudflare så är det givetvis så att saker och ting är en aning annorlunda jämfört med att köra sajten “naket” direkt mot Internet. Cloudflares tunnel fungerar som en proxy som routar trafiken via Cloudflare och i Cloudflares proxy termineras även SSL-certifikaten för webbsajterna, med mera.

Detta fungerar utan några som helst problem för sajter som denna, men för Wordpress är det annorlunda. Wordpress är, och har alltid varit, ganska uselt på att hantera SSL. En värre blir det när man ställer en webbsajt baserad på Wordpress bakom en proxy, i det här fallet tunneln via Cloudflare. Jag lyckades till slut få det att fungera när jag gjorde hela flytten till egen server hos Hetzner i somras men då jag var tvungen att rota runt lite i konfigurationen idag, och givetvis hade sönder allt eftersom jag inte mindes hur jag löst det, så bestämde jag mig för att dokumentera det för mig själv och för andra som funderar på att göra samma lösning.

Varför ska man titta på en tunnel hos Cloudflare, kanske du undrar? Om du kör en server hemma och inkommande trafik är spärrad, eller om din internetleverantör använder sig av det som kallas för Carrier-grade NAT, eller CGNAT (för att ta två exempel), så kan en gratis tunnel hos Cloudflare göra att du faktiskt kan köra din webbsajt hemma ändå.

Wordpress och Cloudflare-tunnel

När man sätter upp sin tunnel mellan Cloudflare och sin egna server så finns det ingen anledning att skicka trafiken över https (kryptering medelst SSL)-protokollet då trafiken mellan Cloudflare och din server går i en krypterad tunnel. Alltså gör man det enkelt för sig och låter webbservern hemma prata http, utan något SSL-certifikat. När man installerat sin Wordpress-sajt och fått igång tunneln mellan servern och Cloudflare kommer man upptäcka att sajten fungerar fin-fint när man besöker den, men när man går in i inställningarna och vill ändra sajtens adress till https://www.dinsajt.tldså brakar det. Du kan inte logga in administrationsgränssnittet och ställa tillbaka webbsajtens adress till http://www.dinsajt.tld och om du inte vill sätta igång och rota i databasen för att där ändra webbsajtens adress (den lagras i databasen, nämligen) så är läget en aning knepigt.

Sajten kommer kunna fortsätta att ta emot besök men när man vill logga in i det administrativa gränssnittet så får man det ökända felmeddelandet om “too many re-directs”. Detta beror på att Cloudflare-tunneln försöker leda om all trafik till https medan webbservern hemma är konfigurerad för att endast prata http. Detta gör att Wordpress vill prata https medan webbservern vill prata http, och sen går detta i en loop några gånger tills webbläsaren ger upp.

Lösningen är relativt enkel, och den matas in i wp-config.php-filen där din Wordpress-konfiguration ligger.

Dessa två rader är din räddning:

define('WP_HOME','http://www.dinsajt.tld'); define('WP_SITEURL','http://www.dinsajt.tld');

Genom att ange http i dessa två rader så kommer du kunna logga in i administrationsgränssnittet igen och kunna fortsätta arbeta med din webbsajt.

Snart kommer dock ett annat problem att uppstå, och det beror på att Wordpress tror att den kommunicerar via http och inte https vilket gör att innehållet i Wordpress inte skickas enbart över https, så-kallat mixed content. Detta löser du genom att ange följande rad i wp-config.php:

$_SERVER['HTTPS']='on';

Nu talar du om för Wordpress att den skickar ut all data via https.

Ett tredje problem kan uppstå om du installerar en plugin för exempelvis trafikanalys till din webbsajt. Du kan se felmeddelanden som detta:

Error connecting to WordPress REST API. Disable ad-blocker for this page or unblock /wp-json/wp-statistics/v2/metabox in the ad-blocker configuration.

Detta har dels med problemet ovan, mixed content, och dels med att Cloudflare har en egen brandvägg som nyper ihop så fort den misstänker att det går lite väl mycket trafik till en viss del av din webbsajt. Jättebra i normala fall men inte i detta läge.

För att komma runt detta så skapar du en regel hos Cloudflare för att slå av säkerheten för www.dinwebbsajt.tld/wp-json/*. Mina två regler för poddens webbsajt ser ut så här:

Efter att du skapat denna regel och också lagt in ändringarna i wp-config.phpså ska din sajt fungera normalt.

ftp.melin.org är tillbaka

När jag skrotade mitt Raspberry Pi-kluster så hade jag inte längre något att köra min “ftp”-server på hemma. Jag säger “ftp” men egentligen så serveras filerna över https då jag inte kan köra ftp hem av olika anledningar.

Hur som haver, nu är tjänsten tillbaka igen. Jag har hört att flera personer har frågat efter den så jag satte upp en virtuell server på min Truenas-maskin och tack vare en tunnel via Cloudflare så går det nu att komma åt filerna igen. Yay!

Du hittar hela grannlåten på ftp.melin.org. Mycket nöje.

Katastrofen som är Fedora 38

Då och då brukar jag installera min favorit-Linuxdistribution, Fedora, på en hyfsat modern PC och se vad denna version av Linux går för.

Jag insåg idag att det var ett bra tag sedan jag skrev om det senast så här kommer en liten uppdatering på läget. Bilden ovan kan anses vara hyfsat indikativ på hur mitt lilla test gick…

De senaste åren har för Fedora inneburit en gradvid utfasning av X.org till förmån för Wayland som fönsterhanterare, och små men stadiga förbättringar på en rad olika områden. Andra områden har förändrats till, i mitt tycke, det sämre. Överlag måste man dock säga att gänget bakom det grafiska gränssnittet Gnome tar steg för steg mot en del av det jag pekade på redan 2018 vilket är väldigt glädjande. Små, enkla, verktyg som exempelvis det för att ta skärmbilder har blivit betydligt bättre. Integrationen i Gnome mot Microsofts onlinetjänster fortsätter att vara omöjligt dåliga. Mycket saknas dock fortfarande och det är säkerligen lika frustrerande för utvecklarna av Gnome som det är för oss som använder det.

Här följer några exempel på hur Gnome, och Fedora, innehåller både framsteg men också stampande på ett och samma ställe år efter år:

När jag försöker ansluta med mitt “Microsoft-konto” som jag har för mailkontot som Microsoft hanterar åt mig via Exchange Online, så får jag ett meddelande att kontot inte finns. Om detta beror på att implementationen i Gnome för detta gentemot Microsoft är gammal vet jag inte. Jag testade istället att ansluta via Gnomes Exchange-implementation och den är ungefär lika usel den. Den förstår inte att slå upp var autodiscover.melin.org pekar, utan istället står den och snurrar i all evighet utan att varken ge upp eller lyckas. Jag anger då korrekt serveradress, outlook.office.com men det hjälper inte heller för då går det inte att logga in, trots att inloggningsnamn och lösenord är verifierade och korrekta.

Jag testar med e-postklienten Thunderbird istället och till min glädje ser jag att när jag matar in mina kontouppgifter kan den slå upp vilken server den ska ansluta till, känna av att kontot ligger hos Exchange Online, erbjuda sig att installera den plugin som krävs för full integration, och sedan göra klart allt. Det tog ett par minuter. Mycket bra. Att Thunderbird numera i praktiken framstår som en webbläsare snarare än en e-postklient kan vi lämna därhän, det fungerar och det fungerar väldigt bra.

Integrationen mot Nextcloud är sedan ett bra tag inbyggt i Gnome men det förvånar mig till denna dag hur långsam den är. Att man dessutom inte får någon lokal katalog i filsystemet (exempelvis ~/NextCloud) av filerna utan att Gnomes Nextcloud-implementation tycks logga in varje gång jag vill komma åt mina filer och listar (efter ett antal sekunders väntan) innehållet i Nextcloud-kontot, är rätt irriterande.

Installera drivrutiner

Jag ville installera drivrutiner för mitt grafikkort från Nvidia för att förbereda mig för punkten som kommer efter denna. Jag surfade till Nvidia och laddade ned drivrutinen och försöker installera den. “Jag måste vara root”, meddelar installationsprogrammet. Det kan jag förstå. Så jag blir root. Då meddelar installationsprogrammet att de känner av att jag kör X.org (vilket jag inte gjorde, eller kunde. Jag kommer till det strax) och jag skulle istället logga in utan att ha X.org igång.

Jag loggar ut från Fedora och trycker alt-f2för att få upp en textsession, vilket gick efter en stund. Efter lyckad inloggning försöker jag köra installationsprogrammet för Nvidias drivrutin igen, men med samma resultat.

När jag var på väg att ge upp hela denna övning så ser jag i “mjukvarubutiken” att någon vänlig själ packat ihop drivrutinerna så jag laddar hem dem den vägen.

Frid och fröjd? Nja…

Spela spel

Jag tänkte att jag skulle testa hur det är att spela spel i Fedora 38. Jag har aldrig riktigt gjort det i Linux och jag såg att de hade en demoversion av Quake 3 i sin egna mjukvarukatalog så varför inte?

Spelet laddades ned och jag ska därefter starta det. Gnome kraschar. Jag startar om datorn, tänkandes att drivrutinen kanske måste läsas in, men resultatet blir det samma. “Wayland måste vara problemet”, tänker jag.

Jag testar att logga ut från Gnome och väljer att logga in med X.org som fönsterhanterare istället. Inget av de alternativ som finns som ger mig X.org fungerar dock - jag möts av en grå skärm där varken muspekare eller skrivbord syns eller fungerar. Jag väntar 7-8 minuter innan jag trycker på stora knappen och stänger av datorn.

Jag loggar in med Wayland igen och försöker starta Quake 3 en gång till. Krasch. Den här gången tänker jag att jag åtminstone ska rapportera in felet. Jag kanske sitter på något ultraovanligt edgecase som är jätteviktigt att de får reda på (troligen inte…).

Efter att ha fyllt i felorsak och tillåtit åtkomst till diverse information så möts jag av dialogrutan ovan. Jag har inget konto i Bugzilla och jag tänker inte skaffa ett heller. Jag ignorerar dialogrutan och kör vidare men möts snart av följande vy:

Det är nu jag ger upp.

Summering

Jag älskar Linux. Jag gillar verkligen Fedora. Jag gillar tanken på en modern Linuxdistribution som fungerar med tjänster som faktiskt finns i omvärlden. Jag gillar att Fedora äntligen integrerat Flatpaks i sin egna “mjukvarubutik” för det finns massor med kul saker att ladda ned och testa bredvid applikationer som Slack, Discord, Thunderbird och en hel del annat intressant.

Huruvida de som utvecklar Fedora faktiskt testar saker är en annan pilsner. Från början var Fedora en distribution där Red Hat testade saker, där man kunde förvänta sig att saker var trasiga, eller gick sönder, och det fick man vackert leva med. Men det är inte så Fedora Linux marknadsförs längre - nu är det “ditt operativsystem” som är “innovativt” och är byggd med “kärlek”.

Jag ville bara installera Linux och testa att spela lite för att se om det faktiskt gick. Men det gick inte, och Fedora framstår som trasigare än på många år. Missförstå mig rätt - det finns miljontals användare av Fedora, och de finns av en anledning för det finns väldigt mycket bra som faktiskt fungerar väl.

Kanske är jag ett edgecase ändå: jag ville använda min PC utan att ta hänsyn till om den hade Windows 10 eller Fedora Linux 38 installerat. Det kanske är en utopi? Kanske är det så att Linux aldrig riktigt kommer ikapp resten av marknaden (det vill säga: Windows och macOS) ? Kanske är det så att kör man Linux på skrivbordet så får man leva med att det fungerar hyfsat mycket men inte till 100 procent?

Det finns säkert lösningar på allt det jag upplevde under några timmars testande, men inte alla har tid, lust eller tålamod att börja gräva ner sig i det träsket. Jag tillhör tyvärr den kategorin just nu.

Vilken Linuxdistribution ska jag testa nu? Debian, kanske?

Jag återkommer när jag gjort den resan. Det borde inte ta tre år till nästa rapport men jag lovar ingenting.

.