Redan när de första uppgifterna om att det skulle finnas ett allvarligt problem med hanteringen, läsa och skriva till en SSD-disk, i Apples nya M1-datorer så ställde jag mig mer än skeptiskt till uppgifterna. Den slutsatsen kom jag fram till genom att använda samma förklaringsmodell som en gammal munk från 1500-talet – Occahams rakkniv.
Occhams rakkniv går i enkelhet ut på att den enklaste förklaringen är den mest logistic, den mest troliga. Ställ upp olika scenarier mot varandra, vägg dem mot varandra och välj den förklaring som är den enklaste. Den är den mest sannolika.
Scenario 1
Apple har jobbat på, utvecklat och testat sina nya M1-datorer, med Apple Silicon under skalet i flera år. I flera år så har olika detaljer, designats, tillverkats, testats, förkastats, designats om, testats på nytt och testats. Det är en lång process där alla delar inte bara testats under drift – de har också testats i labb-miljö och i simulerade användartester. En av de saker som påverkar en modern dator är hur SSD-disken används. En Solid State Drive har nämligen ett begränsat antal läsningar och skrivningar till/från disken innan den kan antas börja att fallera. Det är en mycket hög siffra och en SSD-disk ska kunna användas i flera år innan den bör bytas ut.
Scenario 2
Apple har utvecklat sina nya M1-modeller i flera år. Kretsar, processor och alla andra delar har designats och satts samman enligt gängse normer, en fastställd produktionsprocess – under flera år men Apple har gjort ett allvarligt misstag i designen av sina nya kretsar. Apple Silicon använder en SSD-disk närmast extremt mycket och läser och skriver i sammanhanget dramatiskt oftare till/från disken än vad motsvarande Intel-baserad Mac-dator gör.
Missat
Frågan är alltså om det är sannolikt att Apple skulle ha missat en så given, viktig och relativ lättkontrollerad detalj som hur ofta en Apple Silicon-dator läser och skriver till SSD-disken?
Omöjligt – inte då. Misstag gör alla och även riktigt stora bolag. Kommer ni ihåg Mercedes A1 som rullade runt vid en undanmanöver i strax över 70 kilometer i timmen?
Så det är alltså inte omöjligt, uteslutet eller fullständigt osannolikt.
Hur sannolikt är det då att en så viktig detalj skulle ha missats under alla dessa år av utveckling?
Det, däremot, är inte särskilt sannolikt och det ska ställas mot en betydligt enklare förklaring – programmet har mätt fel. De program som användes var inte optimerade för Apple Silicon, till att börja med. Gjordes samma test med andra program så visade de inte en överdriven belastning på SSD-disken. Samma typ av testprogram gav olika resultat.
Logik
Så låt oss då ställa lite saker mot varandra och kasta in den gamle munken och logik i ekvationen. Min analys var att det var mer sannolikt att det var en miss i testprogrammet än att Apple skulle ha missat en sån här viktig detalj under flera år av utveckling.
Mot det ska ställas Apple senaste debacle med de nya tangentborden för MacBook Pro – Butterfly-funktionen. Det var den jättemissen som gjorde att jag ändå inte var beredd att ta gift på att Apple inte skulle ha gjort en miss. Apple ville veckla en ny typ av tangentbord, övergav en gammal, beprövad teknisk lösning för sin egen och gjorde fiasko.
Sammantaget så är det nog trots allt mer sannolikt att det handlade om ett fel i mjukvaran – hur data skickades, togs emot och analyserades. Kom jag nu fram till denna slutsats för att jag är übersmart?
Inte det minsta – jag tog hjälp en en gammal munk.
