[ Pobierz całość w formacie PDF ]
.W takim przypadku prêdkoœæ roœnie niemal tak, jak to wynika z teorii.Doprowadzi³o to do pojawienia siê koncepcji skalowania – to znaczy dostosowywania liczby procesorów do problemu, na przyk³ad przez po³¹czenie w sieæ komputerów osobistych, bez wprowadzania jakichkolwiek zmian w oprogramowaniu.Potencjalnie jest to bardzo u¿yteczny pomys³, gdy¿ pozwala tanim kosztem – przy wykorzystaniu posiadanych komputerów osobistych – otrzymaæ superkomputer dostosowany do okreœlonego zadania.RISCW ci¹gu ostatnich kilku lat nast¹pi³a jeszcze inna rewolucja w projektowaniu komputerów, polegaj¹ca na powrocie do prostoty.Od wynalezienia mikroprocesora coraz bardziej "barokowe" kostki pe³ni³y funkcjê mózgu w coraz lepszych komputerach.Z³o¿onoœæ takich typowych uk³adów przewy¿sza z³o¿onoœæ infrastruktury du¿ego miasta i pozwala programistom korzystaæ z tysiêcy ró¿nych instrukcji.Zbiór instrukcji jest istotnym elementem sk³adowym systemu operacyjnego komputera.Instrukcje sformu³owane w jêzyku maszynowym przesy³a siê bezpoœrednio do procesora.Niektóre instrukcje s¹ bardzo proste, na przyk³ad polecaj¹ przenieœæ dane z pamiêci do rejestru, tak aby mo¿na by³o ich u¿yæ w obliczeniach.W przybli¿eniu mo¿na stwierdziæ, ¿e 10% instrukcji s³u¿y do wykonania 90% pracy.Ju¿ w latach szeœædziesi¹tych producenci zaczêli myœleæ o lepszym wykorzystywaniu procesorów przy wykonywaniu zadañ wymagaj¹cych wielu obliczeñ.W 1971 roku zespó³ z IBM, pracuj¹cy pod kierunkiem Johna Cocke'a, zwróci³ uwagê, ¿e tylko niewielka czêœæ wszystkich instrukcji musi byæ zrealizowana na poziomie elektroniki:105 wymyœlne instrukcje pomocnicze, które zmniejszaj¹ szybkoœæ dzia³ania mikroprocesora, mo¿na realizowaæ na poziomie oprogramowania.W ten sposób narodzi³ siê pierwszy procesor ze zredukowanym zbiorem instrukcji – RISC (reduced instruction set computer).To wydarzenie zapocz¹tkowa³o debatê miêdzy specjalistami od architektury komputerów;106 znalezienie rozstrzygniêcia by³o utrudnione przez brak rzetelnych porównañ procesorów RISC i CISC (complex instruction set computer).107 W ci¹gu ostatniej dekady procesory RISC stopniowo zyska³y popularnoœæ; s¹ stosowane w komputerach osobistych IBM – zw³aszcza z rodziny RS/6000 – oraz maszynach Hewletta-Packarda i Sun Microsystems.Dziêki wyeliminowaniu ozdóbek i strat, powodowanych przez koniecznoœæ t³umaczenia skomplikowanych instrukcji na proste, komputery RISC osi¹gaj¹ szybkoœæ wielokrotnie wiêksz¹ ni¿ konwencjonalne maszyny.Prostota ma równie¿ inne zalety.Procesor typu RISC zawiera mniej obwodów, a zatem mo¿na go znacznie ³atwiej zaprojektowaæ oraz osi¹gn¹æ wiêksz¹ gêstoœæ elementów elektronicznych, co przyczynia siê do dodatkowego zwiêkszenia szybkoœci.Wewnêtrzny zegar, zapewniaj¹cy synchronizacjê miêdzy ró¿nymi czêœciami procesora, jest w stanie pracowaæ szybciej w maszynach typu RISC.108Rzecz jasna, komputery RISC maj¹ równie¿ pewne wady.Dla u¿ytkownika bardzo wa¿ne jest pytanie, czy taka maszyna mo¿e wykorzystywaæ istniej¹ce programy, poniewa¿ napisanie nowego programu wymaga pracy.Wobec tego dla istniej¹cych programów mikroprocesor typu RISC musi wygl¹daæ tak, jak bardziej barokowe mikroprocesory.Maszyny RISC powinny udawaæ konwencjonalne procesory, nie trac¹c przy tym swej prêdkoœci dzia³ania.Niektórzy producenci omijaj¹ problem zgodnoœci, wykorzystuj¹c procesory typu RISC tylko do zadañ pomocniczych.Inni, zw³aszcza IBM, postawili na maszyny typu RISC, gdy¿ s¹ przekonani, ¿e w ten sposób mog¹ zapewniæ u¿ytkownikom wiêksz¹ moc obliczeniow¹ w przeliczeniu na cenê sprzêtu, pod warunkiem zastosowania w³aœciwego oprogramowania.Wydaje siê, ¿e grozi nam tu b³êdne ko³o, ale coraz wiêcej firm zajmuj¹cych siê produkcj¹ programów oferuje odpowiednie oprogramowanie.Obecnie maszyny typu RISC produkuje nie tylko IBM, ale równie¿ DEC, Buli i Apple.Logika rozmytaRozwój komputera von Neumanna polega³ dotychczas na modernizacji i zmianach architektury oraz elementów sk³adowych.Obecnie rozpoczê³y siê próby zmian systemu logicznego komputera.Jak siê przekonaliœmy, tradycyjna logika komputerów jest ograniczona do dwóch wartoœci – tak lub nie, jeden/zero, prawda lub fa³sz, czarne/bia³e.Konwencjonalne komputery rozwi¹zuj¹ problemy i dokonuj¹ operacji arytmetycznych, korzystaj¹c z algebry Boole'a.Natomiast nasz mózg czêsto rozumuje opieraj¹c siê na niejasnych ocenach i przybli¿onym wartoœciowaniu.Uczeni usi³uj¹ wiêc obecnie skonstruowaæ logiczny model ludzkiego rozumowania, uwzglêdniaj¹cy jego przybli¿ony i jakoœciowy charakter.Dopiero w XX wieku logicy, tacy jak Jan £ukasiewicz, Emil Post i Alfred Tarski, zwrócili uwagê, ¿e mo¿na skonstruowaæ niearystotelesowskie systemy logiczne.Zrezygnowali oni z regu³y wy³¹czonego œrodka (która stwierdza, ¿e dowolne zdanie jest albo prawdziwe, albo fa³szywe), dopuszczaj¹c zdania prawdziwe, fa³szywe i nieokreœlone
[ Pobierz całość w formacie PDF ]