95

Komputery nie będą szybsze. Czy mamy czym zastąpić krzem?

Z każdą kolejną generacją komputery stają się coraz szybsze. Jest to w największej mierze zasługa stosowania coraz mniejszych tranzystorów. Wykonane są one z krzemu i maja pewne ograniczenie – nie można ich zmniejszać w nieskończoność. Granicę udaje się ciągle z dużym wysiłkiem przesuwać, ale w końcu przyjdzie taki dzień, że komputery nie będą mogły już być szybsze. Czy mamy dla nich jakąś alternatywę? Zapewne wielu […]

Z każdą kolejną generacją komputery stają się coraz szybsze. Jest to w największej mierze zasługa stosowania coraz mniejszych tranzystorów. Wykonane są one z krzemu i maja pewne ograniczenie – nie można ich zmniejszać w nieskończoność. Granicę udaje się ciągle z dużym wysiłkiem przesuwać, ale w końcu przyjdzie taki dzień, że komputery nie będą mogły już być szybsze. Czy mamy dla nich jakąś alternatywę?

Zapewne wielu z Was słyszało o Prawie Moore’a. Jeśli się bliżej mu przyjrzeć, to nie jest to wcale prawo, a raczej założenie oparte na obserwacjach poczynionych przez Gordona Moore’a, jednego z założycieli Intela. Zgodnie z jego treścią ilość tranzystorów jaką możemy wsadzić na płytkę tej samej wielkości podwaja się co 18 miesięcy.

Nie należy jednak tego brać jako pewnika, wg którego postępują Intel czy AMD, a bardziej jako ogólny wyznacznik. Wyznacznik, który do tej pory sprawdzał się zadziwiająco dobrze. Oczywiście w latach 60. czy 70. szybkość procesorów zwiększała się dwukrotnie mniej więcej co 3 lata, a były też takie okresy, kiedy najczęściej w definicję Prawa wplatano 24 miesiące. Teraz jednak wg Boba Colwella, inżyniera Intela, który szefował pracom nad Pentiumami (od Pro, przez II, III i 4) Prawo Moore’a po prostu się załamie.

Zgodnie z zapowiedziami, wybrałbym 2020 rok, jako najszybszą datę kiedy będziemy mogli mówić, że Prawo Moore’a jest martwe. Może to się jeszcze przeciągnąć o jakieś dwa lata, ale bez względu na to czy nastąpi to przy 7 czy 5 nm, będzie to wielka sprawa.

Trzeba przyznać, że stwierdzeniem tym Colwell nie odkrył Ameryki. Od dawna mówi się bowiem o tym, że proces technologiczny dotrze w końcu do granicy, której nie będzie w stanie przeskoczyć. Średnica atomu krzemu wynosi ok. ¼ nm (0,234 nm), natomiast obecnie wprowadzane przez Intela do sprzedaży Haswelle wykonane są w 22 nm.

Istnieje więc jeszcze trochę zapasu.

Do tej pory inżynierie ograniczali się do takich sztuczek konstrukcyjnych jak np. zastosowanie tranzystorów trójwymiarowych, jednak kiedy już zbliżymy się do sytuacji w której odległość między płytkami tranzystora spadnie do 5 atomów, to możemy się spodziewać występowania efektów relatywistycznych, które oznaczały będą definitywną porażkę krzemu – nie będziemy w stanie stwierdzić, gdzie dany atom się znajduje.

Dodatkowo, takie, jak powyższe sytuacje będziemy już prawdopodobnie rozważać tylko teoretycznie, gdyż, przy tak maciupeńkich elementach, emisja energii (w postaci ciepła) na zewnątrz będzie tak duża, że

układ po prostu się stopi.

Lubię sobie czasami przyrównywać Prawo Moore’a do kamienia toczącego się za Indianą Jonesem, w jednym z kultowych filmów Stevena Spielberga. W tym wypadku w skórę Harrisona Forda wtłaczani są inżynierowie. W filmie, Indiemu udaje się uniknąć śmierci, ale wiadomo już, że rzeczywistość nie będzie dla nas tak różowa. Już raz, co prawda głaz praktycznie przydeptywał nam pięty. A było to, gdzieś tak na początku ubiegłej dekady.

Zorientowano się wtedy, że podkręcanie częstotliwości pracy zegarów jest bezużyteczne, gdyż produkcja tranzystorów zmieniających swój stan szybciej niż, powiedzmy, 4×109 razy na sekundę jest nieopłacalna z ekonomicznego punktu widzenia. Jest to związane z tzw. Skalowaniem Dennarda.

Jego kluczowym elementem jest gęstość mocy, która w przypadku tranzystorów pozostaje stała. Jeśli zmniejszymy długość tranzystora dwa razy, to ilość energii jakiej on wymaga spadnie 4 – krotnie. (…) Prowadzi to jednak to kolosalnego wydzielania ciepła.

A o cieple już wspominałem. Jak już pewnie sami się domyślacie spoglądając na producenckie naklejki na waszych sprzętach, z pomocą w tym wypadku przyszło multiplikowanie rdzeni. Dzięki temu technologia mogła cały czas iść ramię w ramię z Prawem Moore’a.

intel-plany-przyszłość-procesy-technologiczne

Na razie na czele wyścigu w zmniejszaniu procesu technologicznego stoi Intel. Jak dowiadujemy się z grafiki, firma to planuje wprowadzenie tranzystorów mniejszych niż 10 nm już ok 2015 roku. Jeszcze mniejsze wielkości także znajdują się w orbicie zainteresowań, choć nikt nie jest jeszcze w stanie powiedzieć czy z tej orbity trafią kiedykolwiek na Ziemię.

Lecz w całym tym wyścigu musimy się zastanowić

czy faktycznie potrzebujemy jeszcze szybszego krzemu.

Już od jakiegoś czasu można zauważyć, że komputer kupiony nawet 5 lat temu, cały czas daje sobie radę z nowymi grami. Może nie umożliwia już odpalania ich w najwyższych detalach i nie jest demonem szybkości, ale korzystanie z niego wciąż jest komfortowe. Wielu posiadaczy takich sprzętów wciąż nie widzi sensu w zaopatrywaniu się w nowości technologiczne.

Ograniczenia Prawa Moore’a tyczą się rzecz jasna także smartfonów. Które, jak pokazują ostatnie wydarzenia ściągają się na ilość rdzeni w SoC. Jedni producenci dorzucają ich aż 8, inni wyśmiewają taką sztukę dla sztuki. Nie mnie rozsądzać, kto ma w tym sporze rację, gdyż od tego są benchamarki, a także, a może przede wszystkim, skracający się czas pracy na baterii.

W najbliższym czasie premiera next-genów pokaże, czy rzeczywiście to konsole odpowiedzialne były za zastój na pecetowym rynku.

Istnieje jednak rynek dużo ważniejszy niż ten konsumencki

cern

Weźmy np. takie centrum badań w szwajcarskim CERNie, które miałem przyjemność niedawno odwiedzić. Tam potrzebne są gigantyczne moce przerobowe. Pewnie niektórzy powiedzą, „co mi tam CERN, on i tak nic nie zmieni”, ale to to nieprawda. Pochylmy się np. nad takimi neutrinami, które potencjalnie były szybsze od światła. Na razie nie widzimy może dla nich zastosowania, ale jak się dobrze zastanowić, to podobnie było ze Szczególną Teorią Względności, która dla jednych będzie stosem niezrozumiałych wzorów, a dopiero inni zauważą, jak bardzo odkrycia Einsteina zmieniły nasz świat.

Co po krzemie?

No właśnie. Mamy niby kilku faworytów, wśród których przeważają akcje grafenu, ale oto co mówi o nim Colwell:

Jest to może i materiał obiecujący, ale wciąż jego przyszłość jest bardzo wątpliwa.

Są jeszcze komputery kwantowe i molekularne, które stoją już niby u naszych bram, ale na razie skonstruowano tylko dwa ich egzemplarze, które nie zawsze dawały przewidywalne rezultaty (to chyba z definicji). O uszy obiły mi się też komputery biologiczne, które nawet w porównaniu do powyższych wydają mi się kompletną abstrakcją. Toczą się jeszcze badania nad „mrocznym krzemem” (dark silicon).

Którego dnia możemy się obudzić z ręką w nocniku – skończy się era krzemu, a po niej nie nastanie już żadna.

Foto 1, 2, 3

  • Wg mnie nie ma się czym martwić i nawet jest to coś, z czego należy się cieszyć – granice jakiejś technologii/rozwiązania powodują, że powstaje miejsce dla rozwiązań lepszych albo innych (jak np. samoloty śmigłowe > odrzutowe, dyski twarde > dyski ssd, monitory crt > lcd itp.), ktore albo wypierają wcześniejszą technologię albo powodują, że technologie zaczynają istnieć koło siebie.

    Ja się wręcz nie mogę doczekać, co się będzie działo i co nas czeka w najbliższych latach :)

    • Dokładnie. W pewnym momencie w Nowym Jorku ktoś z przerażeniem odkrył, że za kilkadziesiąt lat odchody końskie zaleją miast z uwagi na lawinowo rosnącą liczbę powozów. Nikt nie przewidział jednak wynalezienia samochodu…

    • Marek Smoliński

      To tak jak, w drugą stronę, „kończenie się” wody, ropy naftowej itd. :D

    • Karol Kopańko

      Nie można zawsze liczyć na przełom – w końcu zalewają nas śmieci i nie umiemy sobie z nimi poradzić, vide Neapol.

    • kofeina

      e tam

    • Neapol to zły przykład, bo tam problemem nie były śmieci, tylko aspekty organizacyjno – mafijne. Ale na pewno takim przykładem jest globalne ocieplenie. Ciężko tu liczyć na przełom – wzorst poziomu CO2 w atmosferze jest najwyższy w historii Ziemi. I tutaj może być problem z przełomem.

    • Spark

      Co ty gadasz? A era karbonu? Wzrost stężenia CO2 jak i sam poziom stężenia były o wiele wyższe i spowodowało bujny rozkwit roślinności :) Dla twojej informacji rośliny aby żyć potrzebują CO2 :)

    • Nie o tym pisałem. Nie chodzi o samo stężenie, tylko jego wzrost, którego dynamika jest najszybsza w historii. Konskerencje tego stanu żeczy mogą być takie, że część organizmów nie będzie w stanie się przystosować do zmieniających się warunków klimatycznych i wyginie. A część z tych gatunków (np. pszczoły) są niezbędne do funkcjonowania ekosystemu. To po piersze. Po drugie szybko topniejące lodowce arktyki mogą doprowadzić do znaczącego zmniejszenia zasolenia oceanu, które jest odpowiedzialne za prądy morskie. Jeżeli Golfsztrom przestanie płynąć, to pókuli północnej grozi kolejne zlodowacenie. W naturze panuje bardzo delikatna różnowaga, której zachwianie grozu nagłymi i poważnymi zmianami w obrębie całej kuli ziemskiej.

    • djakdekiel

      Ostatnio oglądam futuramę i jeśli tak będzie to…super :P

  • dodz

    Fakt, że z krzemem może być ciężko. Ale ten dark wydaje się ciekawy, wiadomo o nim coś więcej?

  • griflej

    A nie możn zrobić tranzystora z 8 powiedzmy atomów – to da 2 nm przecież/

    • Jankiel

      Efekty kwantowe wchodzą już przy 5nm, wtedy tranzystor może po prostu przestać działać. Pewnie nie chciałbyś, żeby procesor wypluwał losowo zera i jedynki.

  • Jakub Syty

    „ale na razie skonstruowano tylko dwa ich egzemplarze, które nie zawsze dawały przewidywalne rezultaty (to chyba z definicji)”
    Tak, komputer kwantowy z definicji zwraca wynik probabilistyczny. Obecnie najlepszy (najszybszy) komputer kwantowy to odpowiednik kwarcowego 16-bitowego komputera. Niektóre obliczenia wykonuje nawet do 10000 razy szybciej, ale dopiero powtórzenie obliczeń ponad 1000 razy daje wynik do 99% pewny. Więc niby przyszłość, ale fizyka nas tu trochę ogranicza. Ale nadal jest to szybszy komputer. Problem tylko w tym że musi być trzymany w temp. zbliżonej do 0 kelwina..

    • Marek Smoliński

      No właśnie, czyli rozumiem, że na takim procesorze 2+2 może równać się 4, ale nie musi? To musiałoby całkowicie zmienić myślenie programistów – każdy moduł, nawet najmniejszy i najbardziej prosty mógłby bowiem zwrócić błędną wartość dla poprawnych danych wejściowych.

    • Jakub Syty

      Tak. To jest związane z tym że kubity (czyli odpowiedniki stanów 0 i 1) mają 3 stany: 0, 1 i pośredni, którego na chwilę obecną nie jesteśmy w stanie ani kontrolować ani automatycznie sprawdzać, a dowolny kubit podczas przetwarzania danych może w tym „półstanie” utknąć. Czyli to tak jakbyśmy nie mogli ufać bitom. Z tym że naukowcy się dwoją i troją żeby to wyeliminować. Moja wiedza na ten temat pochodzi z uczelni, więc możliwe że są już jakieś nowsze dane :)

    • Marek Smoliński

      Z tego, co rozumiem, nie da się od razu stwierdzić, czy któreś obliczenie jest nieprawidłowe. A zatem każde obliczenie procesor musiałby powtarzać tysiące razy, żeby zmniejszyć ryzyko błędu do akceptowalnego poziomu. Może być też tak, że w przyszłości będziemy dysponować dodatkowym podzespołem – tak jak akceleracja 3D nie od razu weszła do kart 3D i mieliśmy na początku osobne Voodoo, tak być może na początku będziemy używać dodatkowych CPU kwantowych, które będą używane tam, gdzie na błędy można sobie pozwolić – np. symulacje fizyczne, tak powszechne w grach komputerowych.

    • Jakub Syty

      Bardzo możliwe. Albo uda się opanować ten „półstan”. Tak czy inaczej, z tego co nas uczyli, to nie mamy się co spodziewać kwantowych komputerów poza eksperymentami przez najbliższe 40 lat

    • Marek Smoliński

      40 lat to obecnie bardzo dużo, muszą Cię uczyć geniusze, skoro przewidują realia na aż tyle do przodu.

    • Jakub Syty

      Geniusze czy nie, nie mnie to oceniać. Ja tam tylko studiuję :)

    • Karol Kopańko

      Moge zapytać o uczelnię i kierunek?

    • Jakub Syty

      Politechnika Śląska – informatyka. O komputerach kwantowych mieliśmy 2 czysto teoretyczne wykłady

    • djakdekiel

      A ja żałuję, że teraz na studiach tak mało się temu poświęca. W końcu może się okazać, że za 20 lat wszyscy informatycy których wypluły uczelnie będą bezrobotni i muszą się wszystkiego uczyć od podstaw.
      Jeśli ktoś chce wpaść na noc w sidła wikipedi to tutaj 2 linki wejściowe
      http://en.wikipedia.org/wiki/Quantum_algorithm
      http://en.wikipedia.org/wiki/Quantum_information_science
      Kiedyś zamiast uczyć się na analizę zbłądziłem :p

    • Karol Kopańko

      Myślisz że informatycy będą bezrobotni? Przecież społeczeństwo dalej zmierza w kierunku digital.

    • djakdekiel

      Obecni mogą się stać bo dla wielu komputery kwantowe mogą okazać się powrotem do początku nauki.
      Chyba każda uczelnia ma jakieś umowy z firmami teraz. U nas np OpTeam i Asseco

    • jscst

      (…)Obecni mogą się stać bo dla wielu komputery kwantowe mogą okazać się powrotem do początku nauki.(…)

      WTF? Komputery nie wyprą komputerów półprzewodników, a po za tym w językach programowaniach zmieni się tylko asembler, a języki wyższego poziomu będą tylko dostosowane przez opracowanie dedykowanej bibliotece kwantowej,

    • Programista

      Absolutnie nie masz pojęcia o czym mówisz. Informatycy to w większości ludzie którzy tak czy inaczej cały czas się douczają. Komputery kwantowe nie będą taką rewolucją, która zupełnie zmieni informatykę. Zmieni się sporo, ale dla informatyków nie będzie to żadnym problemem, firmy beda przeprowadzac szkolenia itd. Pamiętaj że informatyk to człowiek zajmujący się analizowaniem i przetwarzaniem informacji – komputer jest tylko jego narzędziem, innymi słowy komputery kwantowe to dla informatyka nowy, lepszy młotek.

    • Karol Kopańko

      Chyba Śląsk to jest region, który najbardziej stawia na informatykę na uczelniach, co?
      Łączą Was już jakoś z firmami poszukującymi pracowników?

    • Jakub Syty

      Szczerze mówiąc, i ubolewam tutaj, na politechnice Śląskiej informatyki jest tyle co kot napłakał, a o wiele więcej elektroniki. Co do łączenia z firmami to np teraz mam tzw „projekt mentorski”, więc wykonuję prosty projekt informatyczny pod kuratelą firmy LGBS (gdzie dowiedziałem się że dobry programista ze znalezieniem pracy nie powinien mieć najmniejszego problemu). Więc nie marudzę :)

    • Mat

      A co „ekonomista” się nie zna? Przecież zawsze odgrywacie takie role.

  • rascal0pl

    „Już od jakiegoś czasu można zauważyć, że komputer kupiony nawet 5 lat temu, cały czas daje sobie radę z nowymi grami. ” To tak na poważnie? Fakt, włączyć się włączy, lecz co to za przyjemność z gry przy15 klatkach na ustawieniach minimalnych?

    • qlki

      Dokładnie, poza tym myślę, że PC zawdzięcza swoją żywotność tylko konsolom ;-)

    • Robert

      Mam Core 2 Quad Q6600 2.4 GHz & GeForce 8600GT – sprzęt z 2007 roku i mam duużo więcej niż 15 klatek i wcale nie na ustawieniach minimalnych.

    • sprae

      W czym?

    • sprae

      w grach ;)

    • kofeina

      W Quake 2

    • Mat

      Każdy może wykorzystać przywilej wolnego słowa WIĘC NIE MA co się dziwić.
      Jaki autor taki tekst.

  • t43t43

    krzem nie ma nic do rzeczy. kiedy wreszcie zrobimy procesory amorficzne. Najprostszym rozwiazaniem sa transputery, ale proawdziwe procesory amorficzne nie maja hercow. po prostu dzialaja niezaleznie. nie ma czegos takiego jak tu wlacz a tu masz wynik. kazdy kawalek jest w stanie policzyc cokolwiek, ale z rozna predkoscia.

    Dopoki tego nie wdrozymy. A procesory sa znane chyba od 30 lat. to nie bedziemy mieli przyrostu predkosci.

    • Karol Kopańko

      Możesz napisać o nich cos więcej albo podzielić się linkiem? Bo z tego co napisalem to wyglądają ciekawie :)

    • rthrt4

      http://en.wikipedia.org/wiki/Asynchronous_circuit
      Generalnie asynchroniczne procesory nie maja Hz. działają niejako przepływowo. Jeden dośc duży procesor (w sensie powierzchni) nie działałby za szybko synchronicznie. Czas przejscia sygnału byłby zbyt długi. Ale technologia niewielkich pętli i nawracania sygnału spowoduje , ze bedzie bardziej efektywny. Technologia jest stara. nie zawsze komputery byly synchroniczne.

  • Marek Smoliński

    „CZY FAKTYCZNIE POTRZEBUJEMY JESZCZE SZYBSZEGO KRZEMU.”

    Tak. Możemy dodawać coraz więcej rdzeni, co umożliwia nam większą moc przerobową, dzięki czemu możemy uwzględniać więcej obiektów w symulacji fizyki, lub renderować większy obszar w karcie graficznej. Jednakże jeżeli musimy wykonywać jakieś obliczenia po kolei, a nie na raz, np. chcemy obliczyć końcowe położenie rzutu nie miliona kości, a tylko jednej, ale o bardzo dużej sprężystości, przez co będzie się toczyć bardzo długo, to okaże się, że taka symulacja może trwać bardzo długo i po prostu nie da się jej skrócić dołożeniem drugiego rdzenia, chyba, że będą to tysiące rdzeni, które będą zakładały jeden z możliwych wyników głównego wątku i już liczyły ciąg dalszy – wtedy ten rdzeń, który miałby rację – bo założył dobrze – stawałby się głównym wątkiem.

    Przykładowo gra Kerbal Space Program ma tryb przyspieszenia czasu, z racji tego, że nikt nie chce czekać kilku miesięcy, aż rakieta wykona pełny obieg na orbicie. Niestety podczas takiego przyspieszenia dzieją się czasami dziwne rzeczy, bo wtedy symulacja działa inaczej, w uproszczeniu. Jest to wynikiem małego taktowania procesora, którego nie da się zastąpić większą ilością rdzeni, przeczy to więc zdaniu „Już od jakiegoś czasu można zauważyć, że komputer kupiony nawet 5 lat temu, cały czas daje sobie radę z nowymi grami.”

    • Jakub Syty

      Gra działa, mimo że z drobnymi błędami, ale mimo wszystko. A to jest chyba definicja „dawania sobie rady”

    • Marek Smoliński

      Można też powiedzieć, że nawet 10 letnim komputerze można uruchomić nową grę – co prawda z dwoma klatkami na sekundę, ale można. Można też uruchomić na 15 letnim komputerze nową grę – ciągle powstają nowe gry typu saper, tetris, z ninimalnymi efektami graficznymi. Można też powiedzieć, że Pegasus daje radę z nowymi grami – nowymi w sensie: dopiero co rozpakowanymi.

      Ale takie rozumowanie do niczego nie prowadzi, a zatem nie ma sensu!

    • Jakub Syty

      To po prostu nie rozumiesz mojego rozumowania. Jeśli w grę jesteś w stanie grać bez dostawania nerwicy i oglądania jak prezentacji to traktuję to jaką „komfortowe granie”. Jeśli na danym kompie jestem w stanie grać w crysisa (nawet jeśli wyłączę 100% wszystkiego co czyni tą grę ładną) i mam dajmy na to 40 fps to znaczy że komputer „daje radę”. Tak to rozumiem. Tym bardziej że mam jednego kompa do pracy i gier, a pomimo wieku 3 lat – nadal jestem w stanie odpalić crysisa 3 (na zasadzie daje rady, bo jak zaczyna padać deszcz to się robi nieprzyjemnie)

    • Marek Smoliński

      No widzisz, sam sobie przeczysz, bo Twój komputer ma 3 lata, a nie 5. Sam niedawno zrobiłem upgrade około pięcioletniego komputera właśnie i stąd wiem, że pięcioletni sprzęt nie daje sobie rady i o 40 FPS w grze takiej jak Crysis 3 można tylko pomarzyć. Oczywiście, możemy uwzględniać w rozumowaniu komputery sprzed 5 lat za milion dolarów, ale wtedy znowu wkrada się w to rozumowanie przesada taka jak opisana przeze mnie powyżej.

    • Jakub Syty

      Zależy też od tego co kupiłeś te 5 lat temu. Mój komputer kosztował nieco ponad 3 tys. co jest bardzo mało jak na komputer do gier. Przypuszczam że komp za ~5 tys. te 5 lat temu nadal byłby w stanie tego crysisa odpalić.
      Tak czy inaczej, nie zaprzeczysz że mimo wszystko prędkość tej walki (czyli wymagania gier kontra sprzęt) jest o wiele wolniejsza niż np 10 lat temu, kiedy kompa można było wymieniać co rok żeby dawał radę ;p

    • Marek Smoliński

      Nie jestem pewny, czy nie jest to złudne. Sam, widząc artykuł, zerknąłem w Internecie w poszukiwaniu wykresu:

      http://dixienet.org/government_spying/images/MicroprocessorClockSpeed.jpg

      A to dlatego, że wydawało mi się, że taktowanie przestało się znacząco zwiększać już jakiś czas temu i tylko były dodawane rdzenie. Wykres jednak wyprowadził mnie z błędu.

    • Karol Kopańko

      Ta grafika wydaje mi się dziwna – nadal królują przecież rdzenie ok. 3 GHze.

    • Marek Smoliński

      Mi też się wydaje dziwna, ale ja się nie znam i czekam na wypowiedź jakiegoś speca :D Wg wykresu mamy procesory 10 GHz.

    • Michał

      4×2,5=10 :)

    • Marek Smoliński

      Heheheh, nie jestem specjalistą i sam się kiedyś zastanawiałem jak to się liczy, ale w końcu przypomniałem sobie co to jest częstotliwość i puknąłem się w czoło.

    • sivy

      e8400, 8gb ram, amd 6970. sprzet z 2008 roku, oprocz grafy – wymieniona w 2011 styczen. i daje bez najmniejszeg problemu rade. wiec nie dramatyzujcie:)

    • Marek Smoliński

      W ogóle nie wiem po co kupować sprzęt nowszy niż z 2008 roku, skoro jak mówisz, ten sprzęt daje radę i to bez najmniejszego problemu !

    • sivy

      proste ten sprzet dziala juz prawie na 100%. nie ma zapasu mocy. i dlatego na wrzesien zaplanowalem wymiane na sprzet ktory mi zapewni baaardzo duzy zapas mocy i wystarczy znowu na kilka lat.

    • Mat

      ja też mogę grać na maksa: na moim celeronie 640×480 itd.

    • jscst

      (…)że taka symulacja może trwać bardzo długo i po prostu nie da się jej
      skrócić dołożeniem drugiego rdzenia, chyba, że będą to tysiące rdzeni,
      które będą zakładały jeden z możliwych wyników głównego wątku i już
      liczyły ciąg dalszy – wtedy ten rdzeń, który miałby rację – bo założył
      dobrze – stawałby się głównym wątkiem.(…)

      To jest taki styl programowania?!

    • Marek Smoliński

      Nie znam nazwy dla takiego „stylu” i nie wiem czy należałoby to zazwać stylem programowania. Koncepcja na pewno już istnieje, bo jest intuicyjna. Powiedzmy, że tworzysz swój własny silnik 3D dla walk statków kosmicznych i zderzenie statków ma wyglądać następująco:
      1. Przeliczane są natężenia na elementach konstrukcyjnych obydwu statków w momencie zderzenia.
      2. Statek konstrukcyjnie słabszy, czyli pierwszy statek z natężeniem wyższym niż X na jakimkolwiek elemencie ulega destrukcji, a drugi statek nie ulega jakimkolwiek uszkodzeniom.
      3. Następuje rozpad statku słabszego na części.

      Mógłbyś wtedy użyć rdzeni #1 i #2 dla obliczania rozchodzenia się napięć na elementach konstrukcyjnych statków *i jednocześnie* #3 i #4 dla symulacji rozpadania się obydwu statków, mimo, że rozpadnie się tylko jeden – ale jeszcze nie wiesz, który. W momencie, w którym potrafisz już ustalić, który statek ma się rozpaść, powiedzmy, że ten drugi, zwalniasz rdzenie #1, #2 i #3 i kontynuujesz już zaawansowane, o ile jeszcze nie skończone, obliczenia na rdzeniu #4.

      Wiem też, że procesory, przynajmniej niektóre, obliczają jednocześnie obydwa bloki kodu struktury if () {} else {}, co często fałszuje wyniki źle napisanych benchmarków.

    • jscst

      Rozumiem, że to rozwiązanie dla switcha z ładnie rozpisanymi case’ami.

    • Marek Smoliński

      W kodzie maszynowym etykiety dla JMP muszą być ładnie i jasno rozpisane, więc Twoja odpowiedź zależy od kompilatora. Procesor też pewnie zatrzymuje takie obliczanie do przodu w jakimś momencie, pewnie wtedy, kiedy miałby zapisać coś w RAMie, na dysku itd. Assembler to nie moja dziedzina, więc konkretów nie znam.

    • Marek Smoliński

      Nie edytuj w ten sposób komentarzy, zmieniając ich sens, bo to robi troszkę idiotę z osoby odpowiadającej :D

  • kotlet

    Cos sie chyba komuś efekty relatywistyczne z zasadą nieoznaczoności pomyliły.

    • jscst

      Tylko temu komuś… Weź pierwszą lepsze opracowanie dziennikarskie.

  • jscst

    (…)Którego dnia możemy się obudzić z ręką w nocniku – skończy się era krzemu, a po niej nie nastanie już żadna.(…)

    To przesada. Dla zastosowań typowo domowych (gry, multimedia, oprogramowanie biurowe) era komputerów półprzewodnikowych szybko się skończy. Bo popatrzmy na konkurencję:
    kwantowe – daje wielkie efekty, ale wymaga wiele nakładów. Czyli będą królować w laboratoriach i serwerowniach państwowych i sporych firm.
    molekularne i biologiczne – są ograniczone prędkością reakcji chemicznych, więc nie pograsz. Ich zastosowania to zarządzanie ekologiczne w wybranych środowiskach (zakłady biochemiczne, kopalnie, szpitale, miejsca publiczne, oczyszczalnie ścieków, wnętrze ciała pacjenta itp.)

    PS. Efektywność obliczeń półprzewodnikowych mogą znacząco poprawić np. procesory probabilistyczne (do zastosowań growych i okołogrowych jak znalazł)

  • Tomi858

    A co z molibdenitem?
    Molibdenit to połączenie zalet grafenu i krzemu, myślę, że to będzie kolejnym krokiem w przyszłość

    • jscst

      Możesz napisać o nich cos więcej albo podzielić się linkiem? Bo z tego co napisalem to wyglądają ciekawie :)

    • Tomi858

      Czytałem na benchmark tutaj: http://www.benchmark.pl/aktualnosci/Molibdenit_-_nowa_nadzieja_elektroniki_lepsza_od_grafenu-33049.html a jak chcesz więcej to polecam na google przeczytać chociażby pierwsze linki

    • Karol Kopańko

      Na bardzo wczesnej fazie to to się znajduje – dopiero sie zorientowali, że coś takiego jest, ale przez podobieństwo do krzemu może pójść szybko :)

    • Tomi858

      Faktycznie dopiero raczkujemy jeśli chodzi o molibdenit, ale za parę lat myślę, że będzie to dobry następca krzemu i na jakiś czas nie trzeba będzie się martwić o problemy ze zmniejszaniem sprzętu, jego prędkością i odpowiedź na pytanie „Czy mam czym zastąpić krzem?” będzie brzmiała „Mamy, molibdenitem.”

  • natankraps

    Nie przejmowałbym się tak komputerami domowymi. Im przez najbliższych kilkanaście, a może nawet kilkadziesiąt lat nic nie grozi.

    Powód. Cena nowych technologii. To po pierwsze.

    Po drugie. Obecnie nie są wykorzystywane wszystkie możliwości procesorów, np. wielowątkowość, czy wsparcie GPU.

    Najpierw niech programiści zaczną wykorzystywać w pełni to, co mają pod ręką, a dopiero potem niech się zaczną martwić się umierającym prawem Moora.

    • jscst

      (…)Powód. Cena nowych technologii. To po pierwsze.(…)

      Ceny chłodziwa. To po drugie.
      Ceny budowy i eksploatacji infrastruktury wspomagającej kwanty. To po trzecie.

    • natankraps

      Dobrym przykładem „uczenia się sprzętu” przez programistów są konsole. Pierwsze gry były, w porównaniu z tymi u schyłku danej generacji, ubogie graficznie. Czyli możliwości są. Tylko trzeba z nich skorzystać.

      Niestety jakość kodu programu, a tym samym efektywność wykorzystania sprzętu (szybkość działania) padła ofiarą ekonomii. Programy są już tak złożone, że wykorzystuje się gotowe biblioteki, co bardzo skraca proces tworzenia, ale jednocześnie negatywnie wpływa na optymalizację działania. Dziś już nikt się nie przejmuje tym, że wykonanie jakieś instrukcji można 2-3-krotnie przyspieszyć.

    • Marek Smoliński

      Biblioteki z reguły są dobrze zoptymalizowane, a gry – różnie. Oczywiście, nikt już nie programuje w assemblerze (przynajmniej nie AAA) i jest ku temu jakiś powód :)

    • natankraps

      Jest jeszcze jeden powód. Ogromna różnorodność sprzętu na rynku, która w praktyce uniemożliwia wykorzystanie jego pełnej możliwości. Przecież nikt nie będzie sobie kompilował gry o wadze 30 GB :-)

    • Marek Smoliński

      Faktycznie, zapomniałem o tym. Tym bardziej, że ostatnio robi się gry, które można przejść w kilka godzin, więc kompilowanie takiej 20 godzin mija się z celem.

    • jscst

      Ale wiecie, że fanatycy Open Source wolą kompilować sami, nawet OSy:)

    • Marek Smoliński

      Tylko czekać, aż „prawdziwi” poweruserzy będą sami „pisać” swoje OSy opierając się na boilerplate’ach :P

    • Karol Kopańko

      Może to zmusi programistów do lepszego optymalizowania swoich technologii pod PC, tak jak to ma miejsce np. na konsolach.

    • natankraps

      Pomyślałem o tym samym pisząc odp. do jscst :-)

  • Michał

    Do wszystkich ludzi co nie wiedzą jak wygląda komp sprzed 5 lat:

    GeForce GTX 275/285 / Radeon HD 4870
    i7-920
    6Gb ram DDR3 (tripple channel hehe)
    Dysk HDD 7200 z pojemnością mierzoną w TB

    To jest komp sprzed 5 lat. High end co prawda.

    Zobaczmy na upper-mid:

    Geforce GTX 260/ Radeon 4830
    Intel Core 2 Quad Q6600
    4GB ram DDR2

    czy to jest wg was zestaw co nie uciągnie gier? hah

    Zobaczmy rok wcześniej:

    Intel core 2 Quad Q6600
    Nvidia Geforce 8800GT na G92 (nowa architektura, rok 2007)
    4gb ram ddr2

    I jeszcze jeden:

    Intel Core 2 Duo E6700

    Nv Geforce 8800GT
    2/4GB ram

    Ostatni komp jest sprzed 7 lat. Ale to minęło hehe

    NAPRAWDĘ WAM MAŁO?
    Nie wiem ocb, to są totalnie zdatne do grania maszyny. Może faktycznie nie na ultra, ale na med? lajtowo.

    • Karol Kopańko

      Mam zestaw który nazwałeś upper-mid i tak jak napisałem w artykule – wszystko dziala :)

    • Marek Smoliński

      Intel Core 2 Duo Geforce 8800 to już dolina. Mógłbym wymieniać i wymieniać gry, których nie uciągnie. Tzn. dajmy na to Starcrafta 2 odpali, ale o ile można zmniejszyć grafikę do minimum, to procesor po prostu nie uciągnie ilości jednostek i będzie slideshow. Co do kompa sprzed 5 lat, dzięki Twojej rozpisce jestem skłonny uwierzyć, że 5 letni komputer za średnie pieniądze faktycznie jeszcze „daje radę”.

  • zmierzch

    Co się stanie jeśli co roku nie będzie nowego Galaxy czy IPhona z nowym szybszym procesorem? Co więcej to wcale nie musi oznaczać stagnacji w IT, np. algorytmy równoległe są ciągle w powijakach a i tradycyjny soft ma duży potencjał rozwoju i optymalizacji.

    • jscst

      Mam nadzieję, że cykl spadania cen się utrzyma:)

      Bo jeśli ostatnie modele komputerów mają wiecznie utrzymywać ceny (kosmiczne) z debiutu to ja walę taki rozwój.

  • anemusek

    Po prostu zmieni się koncepcja – półprzewodnikowe bramki binarne zastąpimy kwantowymi

  • Michał

    Czytając artykuł czekałem na sekcję o grafenie ale niestety jestem cokolwiek rozczarowany. Jedynie wzmianka, a i niepełna, gdyż znalazło się tam słowo ‚niby’ ale brak jakiegokolwiek wyjaśnienia dlaczego ono tam się znajduje. Nietrwałość materiału? Nieopłacalne technologie wytwarzania? Rozczarowujące właściwości po dokładniejszym zbadaniu?
    Z tego co czytam na reddicie wszystko to jest do przejścia albo już zostało ogarnięte. I wiem że jest tam straszny hype na grafen ale mimo wszystko, idzie to w dobrą stronę chyba.

  • Łukasz Łoboda

    Albo zwyczajnie przerzucą się na Arsenek Galu, który jest trudniejszy faktycznie w opanowaniu i w cholerę droższy, ale bardziej efektywny i „rozwojowy”

    • Jankiel

      Zastąpić krzem może jedynie tani materiał, który jest tani w produkcji na masową skalę. Takie „w cholerę droższe” rzeczy zwykle nie wychodzą z laboratorium.

    • jscst

      Wszystko w fazie rozwojowej jest w cholerę droższe, a i niekiedy gorsze też w cholerę.

    • Jankiel

      Zgadzam się w pełni, początki zawsze są trudne i trudno o to, żeby od razu były opłacalne, co nie znaczy, że nie warto. Mi chodzi o coś innego – jeżeli sam materiał jest dużo droższy, niż krzem, to nie ma szans na wejście na rynek masowy. Już wiele razy zdarzyło się, że tańsze wyparło lepsze. Dlatego potrzebujemy czegoś, co nie będzie dużo droższe od krzemu, a da nadzieję na rozwój przez dłuższy czas.

    • jscst

      W stabilnej sytuacji tak, ale nigdy nie wiesz na co będzie kiedyś hype.

      Patrz na przykład co się ostatnio jest na topie Polsce i na świecie. Łupki, które są o ponad połowę droższe wydobyciu niż gaz.

    • Łukasz Łoboda

      Odpowiedz jest prosta: nie ma takiego materiału (przynajmniej narazie). Następny krok to zwyczajnie wybór droższego materiału i taka optymalizacja, aby efekt końcowy był dalej ekonomiczny. GaAs nie jest jakimś kosmosem, czy nowinką, robiło się już dawno temu z tego mikroprocesory a w elektronice jest dość popularny (szczególnie tej wysokiej częstotliwości).
      Przy dużej skali, zapewne będzie o wiele tańszy niż obecnie, a patrząc na parametry bardziej przyszłościowy. To jeszcze nie teraz, ale już niedaleka przyszłość. Najważniejsze jest to że materiał pozwoli na zachowanie tych samych „zasad” i „rozwiązań” co przy krzemie. Nie wierzę w procesory fotonowe, kwantowe, biologiczne czy inne fantazje. Przy GaAs sądze że nawet 50GHz będzie możliwe. Inna sprawa że tak po prawdzie to wielkich pieniędzy za rozwojem tej technologi jeszcze nie było. Sądzę że dwa rozwojowe „Cykle Intelowe” wystarczyłyby na dostarczenie rynkowego produktu.

  • shymon80

    Prawo Moore’a nie zostało już złamane przez procesory graficzne NVIDII???

    • jscst

      A co dokładnie masz na myśli?

  • Przemek

    Zacznijmy od tego, że komputery nie muszą być szybsze – tylko programiści skuteczniejsi. Świetnie widać to na przykładzie konsol ostatnich dwóch generacji.

  • WojciechJamka

    „Weźmy np. takie centrum badań w szwajcarskim CERNie, które miałem przyjemność niedawno odwiedzić. Tam potrzebne są gigantyczne moce przerobowe.

    W CERN wykorzystuje się ASIC’i np. przy wstępnej analizie wyników które są projektowane min. na AGH :) Procesory są zbyt prądożerne przy takich zadaniach.

    „Pochylmy się np. nad takimi neutrinami, które potencjalnie były szybsze od światła. ”

    Neutrina nie są szybsze od światła. Poleciały za to głowy w CERN :)

  • Pingback: Grafen szansą dla polskiej gospodarki()