Oavsett hur lite man vet om datorer, så har man åtminstone koll på en detalj: egentligen är allting bara ettor och nollor.
(Jag vet inte hur bokstavligt detta påstående tas. Egentligen är det ju inte ettor och nollor, utan strömpulser eller magnetiska lägen osv. Inte för att det gör någon skillnad ...)
Det intressantaste i faktoid-sammanhang är de vantolkningar som förekommer: eftersom datorer i grunden delar upp allt i 1 och 0, ja och nej, svart och vitt, så är de oförmögna att tänka i termer som "kanske", gråskalor, nyanser ... Vilket ju är helt osant. Fast det vet väl alla..?
Egentligen är datorer i grunden lika dåliga på siffror som bokstäver. Vad de egentligen hanterar, djupast sett, är abstrakta, meningslösa symboler; vad dessa representerar är upp till användaren att tolka. Symboler kan utgöras av enstaka bitar (som kan vara 1 eller 0), men kan lika gärna utgöras av godtyckliga grupperingar; med två bitar får man fyra möjligheter (00, 01, 10 och 11), med tre bitar åtta, och så vidare. Med åtta bitar har man tillräckligt många varianter (256) för att symbolerna skall kunna användas som bokstäver och siffror. En dator har, i princip, lika lätt för att hantera dessa 256-ställiga symboler på åtta bitar som de tvåställiga på en.
Inga kommentarer:
Skicka en kommentar
Obs! Endast bloggmedlemmar kan kommentera.