Postat: 20 oktober 2007, 07:14:26
Principen är densamma, ursprungligen var det för linjer på plotters. De kan ju bara röra sig i fasta inkrement, precis som en heltalsräknare. Då kan man få en noggrannhet som ligger inom steglängden genom att använda en sådan algoritm. I långa loppet blir det helt exakt. Ju längre ju mindre blir det relativa felet i förhållande till helheten.
Angående assembler så är det inte alls svårt att hantera flera instruktionsset. Det är bara olika tabeller för OP's och dekoderrutiner för addressmodes. Hela den "tunga" delen med symbolhantering, beräkningar, inläsning av källkod, filhantering o.s.v. är gemensam. Eftersom det följer samma mall hela tiden så kan det vara på detta sätt. Skulle varit svårare om tillverkarnas OP's skulle ha använts.
Det är just att "normalisera" källkoden mellan processorerna och at få bort onödigt krångel som är avsikten med den. Där finns inga onödiga saker som stökar till det. Dessutom är den blixtsnabb. Över 1M kod för 8088 till färdig binärfil på mindre än 1/10 sekund med en modern dator. Givetvis är det ett kommandoradsprogram skrivet i assembler. Version 0 i TP3 för att komma igång, sedan konvertering så den kan assemblera sig själv.