Ny programvara oftast slöseri med resurser [delad, blåskärm]
Re: Ny programvara oftast slöseri med resurser [delad, blåsk
> Jag kommer inte tjata mer om detta...
Verkar klokt.
Verkar klokt.
- Spisblinkaren
- EF Sponsor
- Inlägg: 12990
- Blev medlem: 13 december 2012, 21:41:43
Re: Får blåskärm vid installation av Win-XP, vad göra?
Måtte 32-bit OS tiden få en snar renässans!Retroperra skrev:rogerk8:
Det slösas med minne hela tiden.
Bilderna ska vara tagna med multimegapixel-kameror, rå audio ska nödvändigtvis ha 16-bitars upplösning, programmerare skiter i (om dom ens kan) kodeffektiv programmering.Jag har länge velat svara på det här men känt att jag inte riktigt är i din liga.På universitetet undervisar/forskar jag mm både inom journalistik och grafisk- och industridesign. Vi gör bl.a. bild- och ljudjobb med studenterna (captain obvious tittar in) men även med olika företag som hör av sig och vill ha nåt gjort. Frekvensanalys över tid av ”ljudet” som uppstår i pappersmaskin när man gör pappermassa är bland det roligare vi får nöjet att göra. Vi sätter kontaktmickar på rälsen utanför universitetet i höst för att titta på hur enskilda tågvagnars hjulset beter sig mot rälsen - kul! Nå.
Intressant att höra!Det är noga att skilja på inhämtad data och det man sedan producerar. Ljud som mätdata är ju en särskild grej men också i journalistutb. tar vi normalt inte i ljud som är inspelat med mindre än 24 bitar. Ljud med färre bitar håller inte för de behandlingar vi vill köra. Behandlingarna här gäller både dynamik och frekvens. Det uppstår ojämnt brus och konstiga signaler neråt 10Hz som vi inte ser i 24 bits inspelningar. Dessa störningar tar sig sedan upp och blir ibland hörbara när man bearbetar ljudet.
Också intressant att höra!Om någon student eller samarbetspartner kommer in tillbaks med råljud inspelat med 16 istf. 24 hörs det nästan omedelbart eller så syns det i graferna. Hur det hörs beror förstås på vilken typ av mickar och preamps som använts. Att låta inspelningselektronik och mickar jobba ”fullt ut” är inte att slösa med minne, det är att använda elektroniken.
Skulle vi interpolera ner datat till säg 8 bitar innan analys DÅ skulle vi slösa med datat.
När vi sedan mixar ner ljud för vanlig lyssning tar vi ner det till 16/44.1 men då är ljudet anpassat för lyssning i konsumentutrustning. För analys i t.ex. matlab är alla 24 bitar kvar och ju högre samplingsfrekvens ju bättre. Vi kan alltid interpolera neråt men att göra det uppåt är ju bara självbedrägeri.
rogerk8:
Efter stor irritation över att det tog sån lång tid att ladda upp videorna till youtuben blev jag förbannad och lyckades ställa den i VGA-mod istället. Detta tror jag samtidigt resulterade i att de vanliga stillbilderna blev runt 130kB istället.
Och hur mycket har jag drabbats av denna extrema "råkomprimering", tror ni?Intressant!Men kom ihåg att din kamera interpolerar ner till 640x480 eftersom hela bildsensorn ändå används i filmningen så det ser bättre ut i låg upplösning med en bra kamera än en gammal digitalkamera som bara har 640x480 som högsta upplösning.
Sen, visst, Youtube komprimerar ner det som läggs upp så där behöver man inte gödsla med data. 720p räcker gott och väl. Vimeo är bättre, där finns ”äkta” HD som en option. Ev. behöver du en ny skärm om du inte ser skillnaderna![]()
rogerk8:
Jag ser bara nästan absurda tillämpningar då man verkligen har nytta av all denna hysteriska upplösning. Bifogar en svart-vit bild som inte är större än 33kB och dessutom hänger förstorad på min vägg (det är ok att censurera bort den).Här har du fel. Jag fick bilden via mejl. Sen lät jag ett professionellt lab förstora bilden till typ A4 varvid hon sa "33kB kommer inte bli bra" Men när hon kom tillbaks sa hon att hon var förvånad över bildkvaliteten. Den duDin bild måste ha behandlats i t.ex Photoshop för så jämn i tonerna blir inte ett rått foto direkt i kameran. Den blir 3,4 x 5,1 cm i normal 300ppi printupplösning. Vad har du använt för printer?
rogerk8:
Sen när det gäller audio kan jag meddela att när jag gjorde en laboration i skolan där man kunde ställa antalet bitars upplösning hos en audio-signal samt lyssna på den så räckte det faktiskt med ynka fem bitar för att det skulle låta okej. Detta betyder således att 8 bitar räcker mer än väl och då har vi reducerat audio-datan med hälften!8 bitars audio räcker uppenbarligen mer än väl hävdar jag. Den enda gången audio är njutbart är f.ö via vinylspelare och rörförstärkareHaha, fem bitar, det är ungefär vad man skruvar ner ljudet till i en sån digital distbox jag har till gitarren. Vad har du för högtalare när du lyssnar på fem-bitars ljud?
Ljudet ska ju inte bara vara hörbart utan också njutbart!
rogerk8:
Slutligen (och nu ger jag mig in på hal is) så tror jag inte att folk kan programmera kodeffektivt längre.Om killen som skrev kompilatorn brydde sig lika lite som kodaren så får vi en lavineffekt av kodineffektiv programmering! Vilket i slutändan ger oss Win8 och processorer som behöver både 64 bitar och multipla kärnor för att hänga medDär håller jag med, men många IDEn idag komplierar inte minneseffektivt heller så varför ska en kodare anstränga sig?
Tänk att ett helt OS kan få plats på en enda diskett!Å andra sidan vad är effektivt? Upplevd hastighet eller minnessnålhet? Jag startade en gammal Macintosh SE i veckan och den kändes faktiskt riktigt OK i hastighet. Hela OSet får plats på en 1.44 diskett. Men det handlar om noll minnessäkerhet, dålig städning av återlämnat minne, få använda databitar, max utnyttjande av det minne som finns kvar när OSet körs. Men det är ett grafiskt OS med muspekare och fönster, printfunktion och stöd för (enkelt) nätverk. Och det gjort i slutet på 80-talet. Men då var minne dyrt, idag är det andra saker som är viktigare.
Gigantiskt program med tanke på ovanståendePhotoshop 6 som jag tittade på din bild i är 513 Mb stort, det är en halv gig för ett enda program... oj oj ...
Nu tittade jag inte på storlekarna på programmen på programdisketten men flera program rymdes ju utan problem på en diskett och då fanns det ändå plats att spara ner filer. Men jag skulle inte vilja återgå till 16/32-bit OS tiden för det.
Jag håller själv på att bygga mig en 16-bit CPU och även om jag inte var så intresserad på den tiden så är det makalöst vad man kunde göra med en 16-bit maskin förr, eller hur?
2^16*16 bit säger mig sedan att det räcker långt och blir en massa över!
Tack för ditt trevliga svar!
MVH/Roger
- Spisblinkaren
- EF Sponsor
- Inlägg: 12990
- Blev medlem: 13 december 2012, 21:41:43
Re: Ny programvara oftast slöseri med resurser [delad, blåsk
Å andra sidan, vad spelar det för roll vad jag tycker?
Jag är ju bara en idiot!
Roger and out
Jag är ju bara en idiot!
Roger and out
Re: Ny programvara oftast slöseri med resurser [delad, blåsk
He he, ja det tog en halv dag att kompilera minsta lilla program, 3-D konstruktion är bara att glömma, det blir att gå tillbaka till 2-D och en herrans massa prototyper och ritningsrevisioner, i stället för att man som i dag, gör konstruktionen och prototypen direkt maskinen, samt kan generera direkt tryckbara bilder från konstuktionsdata, Bildbehandling, tja det kan ju man glömma också.Måtte 32-bit OS tiden få en snar renässans!
Jag håller själv på att bygga mig en 16-bit CPU och även om jag inte var så intresserad på den tiden så är det makalöst vad man kunde göra med en 16-bit maskin förr, eller hur?
Nä, bevare mig från 16/32bitarsträsket.
- Spisblinkaren
- EF Sponsor
- Inlägg: 12990
- Blev medlem: 13 december 2012, 21:41:43
Re: Ny programvara oftast slöseri med resurser [delad, blåsk
Du är en trevlig och duktig kille TomasL!
Jag gillar inte dina "åsikter" men f-n vad trevlig du är.
Det är för lite enkärniga 32-bitars maskiner
Jä...lar vad jag tjatar, eller hur sodjan
Love you guys!
MVH/Roger
Jag gillar inte dina "åsikter" men f-n vad trevlig du är.
Det är för lite enkärniga 32-bitars maskiner

Jä...lar vad jag tjatar, eller hur sodjan

Love you guys!
MVH/Roger
Re: Ny programvara oftast slöseri med resurser [delad, blåsk
Med en 32-bitars dator på några GHz kan man göra det mesta. Men för 3D-CAD, stora databaser, simuleringar, spel, rendering, mjukvaruradio, FPGA syntesering osv. Kan man behöva betydligt mer. Så det handlar i huvudsak om vad tillämpningen är.
För en nätverkskamera kan en 32-bit 100 MHz ARM med 128 kB RAM duga utmärkt. Medan en temperaturlogger för 1-wire klarar sig med en ATmega 8-bit 10 MHz och 1 kB RAM.
Dock, ju större addressutrymme som varje process skall vara beredda på. Så krävs också större addressreferenser. Vilket kan kräva mer minnesåtkomster och större binärkod.
För en nätverkskamera kan en 32-bit 100 MHz ARM med 128 kB RAM duga utmärkt. Medan en temperaturlogger för 1-wire klarar sig med en ATmega 8-bit 10 MHz och 1 kB RAM.
Dock, ju större addressutrymme som varje process skall vara beredda på. Så krävs också större addressreferenser. Vilket kan kräva mer minnesåtkomster och större binärkod.
- Spisblinkaren
- EF Sponsor
- Inlägg: 12990
- Blev medlem: 13 december 2012, 21:41:43
Re: Ny programvara oftast slöseri med resurser [delad, blåsk
Blueint, du skriver mycket intressant.
Kan du ge mig ett numeriskt exempel där 32 bitar inte räcker till?
Adresseringsmöjligheten är ändå 4,3GB och jag förstår inte varför så mycket mer skall behövas.
Lägg gärna till 2 miljarder instruktioner per sekund som begränsning i samma exempel.
MVH/Roger
PS
En annan luring jag heller inte förstår är hur hårddiskarna samtidigt kan vara på TB men jag antar att det har med sektorer och en annan typ av adressering att göra.
Kan du ge mig ett numeriskt exempel där 32 bitar inte räcker till?
Adresseringsmöjligheten är ändå 4,3GB och jag förstår inte varför så mycket mer skall behövas.
Lägg gärna till 2 miljarder instruktioner per sekund som begränsning i samma exempel.
MVH/Roger
PS
En annan luring jag heller inte förstår är hur hårddiskarna samtidigt kan vara på TB men jag antar att det har med sektorer och en annan typ av adressering att göra.
Re: Ny programvara oftast slöseri med resurser [delad, blåsk
Roger, det handlar inte om "Att det inte räcker till" utan snarare om hur lång tid det får lov att ta.
Om du skall göra en rörlig rendering (till en animation till exempel), och förväntar dig att du skall få ut 25fps, så duger inte 2 fps helt enkelt.
2 fps blir det om det tar för lång tid att beräkna renderingen eller att det är för lite minne, så det hela måste swappas ut till disk.
Om du sitter och konstruerar och vill göra en stressanalys av det du konstruerat, så duger det inte att du får vänta till nästa dag för att se resultatet.
Det hela är väldigt enkelt, vi har andra krav nu än på 80/90-talet.
Jag har inte råd att låta mina konstruktörer sitta och "rulla tummarna" pg.a. att de har långsamma datorer med för lite minne.
Sitter du i något CAD-program och konstruerar, och har ett par tusen eller fler parts i din assembly, blir det helt enkelt inte arbetsbart om man inte har mycket med minne (dvs minst 8G helst 16-32G) och snabba flerkärniga processorer (dvs minst 4 kärnor med hastigheter över 3 GHz, gärna 4 eller över)
Du vet hur mycket datakraft det gick åt för att rendera AVATAR, eller?
Beträffande hårddiskarna så adresseras med 48 bitars adresser, vilket begränsar storleken till 144 000 TB.
Du kan läsa om LBA på tillexempelvis vikipedia
Om du skall göra en rörlig rendering (till en animation till exempel), och förväntar dig att du skall få ut 25fps, så duger inte 2 fps helt enkelt.
2 fps blir det om det tar för lång tid att beräkna renderingen eller att det är för lite minne, så det hela måste swappas ut till disk.
Om du sitter och konstruerar och vill göra en stressanalys av det du konstruerat, så duger det inte att du får vänta till nästa dag för att se resultatet.
Det hela är väldigt enkelt, vi har andra krav nu än på 80/90-talet.
Jag har inte råd att låta mina konstruktörer sitta och "rulla tummarna" pg.a. att de har långsamma datorer med för lite minne.
Sitter du i något CAD-program och konstruerar, och har ett par tusen eller fler parts i din assembly, blir det helt enkelt inte arbetsbart om man inte har mycket med minne (dvs minst 8G helst 16-32G) och snabba flerkärniga processorer (dvs minst 4 kärnor med hastigheter över 3 GHz, gärna 4 eller över)
Du vet hur mycket datakraft det gick åt för att rendera AVATAR, eller?
Beträffande hårddiskarna så adresseras med 48 bitars adresser, vilket begränsar storleken till 144 000 TB.
Du kan läsa om LBA på tillexempelvis vikipedia
Senast redigerad av TomasL 29 juli 2014, 23:24:18, redigerad totalt 1 gång.
- Spisblinkaren
- EF Sponsor
- Inlägg: 12990
- Blev medlem: 13 december 2012, 21:41:43
Re: Ny programvara oftast slöseri med resurser [delad, blåsk
TomasL, nej jag vet inte hur mycket datakraft det gick åt att rendera AVATAR.
Underbar film, btw.
Förklara gärna och passa mycket gärna också på att försöka förklara vad rendera betyder
MVH/Roger
PS
fps betyder flyttalsoperationer per sekund, väl?
Underbar film, btw.
Förklara gärna och passa mycket gärna också på att försöka förklara vad rendera betyder

MVH/Roger
PS
fps betyder flyttalsoperationer per sekund, väl?
Re: Ny programvara oftast slöseri med resurser [delad, blåsk
Det är lite som att fråga varför det finns X2000 när man kan cykla. Det går.. men är några magnituder mer omständigt..
Samma med datorer. Om man jobbar med komplexa data är det mycket enklare att bara hiva iväg en pekare som har addressen direkt. Istället för att använda en massa indirekta metoder för att nå datat. Det gör att man kan koncentrera sig på huvudproblemet istället för praktiska metoder.
Segmentregister, PAE, osv.. alla är tekniker som använts för att komma runt minnesaddressering. Det är väldigt skönt att slippa det där träsket.
Bearbetningshastighet är mycket användbart för simuleringar mm.
Börja tänk utanför den tankebox du uppenbarligen befinner dig i. Det finns många användningar där stora minnesrymder och bearbetningshastigheter är nödvändliga. Man kan göra mycket kul med en Commodore 64, men det är också uppenbart att vissa saker är praktiskt omöjliga. Dito för Amiga 500, Intel 386, SMP kluster osv. Det finns gott om exempel i denna tråd. Ta till dig av dessa.
Samma med datorer. Om man jobbar med komplexa data är det mycket enklare att bara hiva iväg en pekare som har addressen direkt. Istället för att använda en massa indirekta metoder för att nå datat. Det gör att man kan koncentrera sig på huvudproblemet istället för praktiska metoder.
Segmentregister, PAE, osv.. alla är tekniker som använts för att komma runt minnesaddressering. Det är väldigt skönt att slippa det där träsket.
Bearbetningshastighet är mycket användbart för simuleringar mm.
Börja tänk utanför den tankebox du uppenbarligen befinner dig i. Det finns många användningar där stora minnesrymder och bearbetningshastigheter är nödvändliga. Man kan göra mycket kul med en Commodore 64, men det är också uppenbart att vissa saker är praktiskt omöjliga. Dito för Amiga 500, Intel 386, SMP kluster osv. Det finns gott om exempel i denna tråd. Ta till dig av dessa.
Re: Ny programvara oftast slöseri med resurser [delad, blåsk
fps = frames per second, dvs bilder per seckund, och för att du skall kunna se en film som en film och inte enstaka bilder så behöver man ha minst 16 fps.
Rendering betyder färg och ljussätta en bild/film, dvs datorn räknar fram exakt hur ljuset reflekteras/adsorberas på varenda punkt på bilden, samtidigt som den naturligtvis tar hänsyn till alla ljuskällor som kan finnas, materialets struktur osv, och även gömmer de delar som inte syns, samt genererar spegelbilder i till exempelvis blanka ytor osv.
Beträffande AVATAR , så bestod renderfarmen av 32 maskiner (ett av det snabbaste HP-Blade systemen), totalt var det 40 000 processorer och 104TB RAM.
varje enskild maskin producerade 7-8 GB data/s och de gick 24/7 i ett par månader.
Med en vanlig mycket snabb hemdator tar det runt 2 dygn att rendera EN bildruta, och AVATAR, eftersom den är 3-D ligger på ( rätta mig om jag har fel) 100Bilder/s.
Så det är ju bara att räkna på hur lång tid det skulle ta att rendera AVATAR hemma, 167min x60s x100 fps x 48 tim = 1 000 000 rutor x två dagar, dvs runt 2 miljoner dagar eller runt 5000 år ( har iofs sett uppgifter på 3500 år).
Samma förhållande gäller faktiskt även moderna datorspel, där spelet renderas "on the fly" och även när man jobbar i CAD så genereras bilden "on the fly".
Rendering betyder färg och ljussätta en bild/film, dvs datorn räknar fram exakt hur ljuset reflekteras/adsorberas på varenda punkt på bilden, samtidigt som den naturligtvis tar hänsyn till alla ljuskällor som kan finnas, materialets struktur osv, och även gömmer de delar som inte syns, samt genererar spegelbilder i till exempelvis blanka ytor osv.
Beträffande AVATAR , så bestod renderfarmen av 32 maskiner (ett av det snabbaste HP-Blade systemen), totalt var det 40 000 processorer och 104TB RAM.
varje enskild maskin producerade 7-8 GB data/s och de gick 24/7 i ett par månader.
Med en vanlig mycket snabb hemdator tar det runt 2 dygn att rendera EN bildruta, och AVATAR, eftersom den är 3-D ligger på ( rätta mig om jag har fel) 100Bilder/s.
Så det är ju bara att räkna på hur lång tid det skulle ta att rendera AVATAR hemma, 167min x60s x100 fps x 48 tim = 1 000 000 rutor x två dagar, dvs runt 2 miljoner dagar eller runt 5000 år ( har iofs sett uppgifter på 3500 år).
Samma förhållande gäller faktiskt även moderna datorspel, där spelet renderas "on the fly" och även när man jobbar i CAD så genereras bilden "on the fly".
- Spisblinkaren
- EF Sponsor
- Inlägg: 12990
- Blev medlem: 13 december 2012, 21:41:43
Re: Ny programvara oftast slöseri med resurser [delad, blåsk
Tack för att ni tar er sån tid och energi med att förklara saker för korkade mig. Det är uppenbarligen inte mycket man förstår när det gäller datorer. Men låt mig få posta nedanstående först så ska jag kommentera era trevliga inlägg senare.
Det verkar som om det bör poängteras att jag faktiskt aldrig sagt att 32-bitars Single Core-maskiner (SC) är det enda mänskligheten behöver.
Jag har bara sagt att en folkdator i ordets rätta bemärkelse inte behöver vara märkvärdigare än en 32-bitars SC-maskin.
Detta helt enkelt för att folk i allmänhet inte behöver den extrema beräkningskapaciteten som 64-bitars MC-maskiner innebär.
Kruxet med detta är emellertid att vi får två maskin-parker.
Men jag tror att vartefter MC-maskinerna utvecklas så kommer de bli onödigt komplicerade och därmed dyrare än vad en SC-maskin behöver vara.
Så för att ge säg 80% av mänskligheten lagom mycket datorkraft för att surfa, kolla mejl och betala räkningar räcker 32-bitars SC-maskiner mer än väl.
Va f-n, tom jag sitter ju vid en sån och inte lider jag av det!
MVH/Roger
Det verkar som om det bör poängteras att jag faktiskt aldrig sagt att 32-bitars Single Core-maskiner (SC) är det enda mänskligheten behöver.
Jag har bara sagt att en folkdator i ordets rätta bemärkelse inte behöver vara märkvärdigare än en 32-bitars SC-maskin.
Detta helt enkelt för att folk i allmänhet inte behöver den extrema beräkningskapaciteten som 64-bitars MC-maskiner innebär.
Kruxet med detta är emellertid att vi får två maskin-parker.
Men jag tror att vartefter MC-maskinerna utvecklas så kommer de bli onödigt komplicerade och därmed dyrare än vad en SC-maskin behöver vara.
Så för att ge säg 80% av mänskligheten lagom mycket datorkraft för att surfa, kolla mejl och betala räkningar räcker 32-bitars SC-maskiner mer än väl.
Va f-n, tom jag sitter ju vid en sån och inte lider jag av det!
MVH/Roger
Re: Ny programvara oftast slöseri med resurser [delad, blåsk
Du glömmer en väldigt viktig detalj, de maskiner som "folket" använder, används till säg 80-90% även för att spela spel som till exempelvis Crysis och liknande, och då krävs det multikärnade 64-bitarsmaskiner på många GHz.Jag har bara sagt att en folkdator i ordets rätta bemärkelse inte behöver vara märkvärdigare än en 32-bitars SC-maskin.
Den användning du hänvisar till utgör en försvinnande liten del av datoranvändandet.
Re: Ny programvara oftast slöseri med resurser [delad, blåsk
Folkdator nischen fylls väl upp av netbooks som Eee 900, Chromebook mm.
Re: Ny programvara oftast slöseri med resurser [delad, blåsk
Framförallt är det väl plattor i dag, och ifånar mm.