Laptopy, telefony komórkowe i tablety stają się co roku tańsze, bardziej eleganckie i wydajniejsze, a czas pracy baterii wydłuża się. Czy kiedykolwiek zastanawiałeś się, dlaczego tak jest i czy urządzenia mogą być ulepszane w nieskończoność?

Odpowiedź na pierwsze pytanie wyjaśniają trzy prawa odkryte przez badaczy, znane jako prawo Moore'a, skalowanie Dennarda i prawo Koomeya. Czytaj dalej, aby zrozumieć wpływ tych przepisów na komputery i dokąd mogą nas doprowadzić w przyszłości.

Co to jest prawo Moore'a?

Źródło: Steve Jurvetson /Flickr

Jeśli jesteś regularnym czytelnikiem MakeUseOf, prawdopodobnie znasz mityczne prawo Moore'a.

Dyrektor generalny i współzałożyciel firmy Intel, Gordon Moore, przedstawił go po raz pierwszy w 1965 roku.

Przewidział, że liczba tranzystorów w chipie podwoi się co około dwa lata i będzie tańsza o 20-30% rocznie. Pierwszy procesor Intela został wydany w 1971 roku z 2250 tranzystorami i powierzchnią 12 mm2. Dzisiejsze procesory zawierają setki milionów tranzystorów na milimetr kwadratowy.

instagram viewer

Chociaż zaczęło się to jako prognoza, branża przyjęła również prawo Moore'a jako mapę drogową. Przez pięć dekad przewidywalność prawa pozwalała firmom na formułowanie długoterminowych strategii, wiedząc, że nawet gdyby ich projekty były niemożliwe na etapie planowania, prawo Moore'a dostarczyłoby towary w odpowiednim momencie za chwilę.

Miało to efekt domina w wielu obszarach, od stale ulepszanej grafiki gier po rosnącą liczbę megapikseli w aparatach cyfrowych.

Jednak prawo ma okres przydatności do spożycia, a tempo postępu spada. Chociaż chipmakers nadal to robią znaleźć nowe sposoby na pokonanie ograniczeń chipów krzemowychSam Moore uważa, że ​​do końca tej dekady nie będzie już działać. Ale to nie będzie pierwsze prawo technologii, które zniknie.

Kiedy kończy się prawo Moore'a: 3 alternatywy dla chipów silikonowych

Prawo Moore'a od dziesięcioleci dyktuje tempo rozwoju technologicznego. Ale co się stanie, gdy zostaną osiągnięte jego fizyczne granice?

Co się stało ze skalowaniem Dennarda?

Źródło zdjęcia: Fred Holland /Wikimedia

W 1974 r. Badacz IBM Robert Dennard zauważył, że w miarę kurczenia się tranzystorów ich zużycie energii pozostaje proporcjonalne do ich powierzchni.

Skalowanie Dennarda, jak stało się znane, oznaczało zmniejszenie obszaru tranzystora o 50 procent co 18 miesięcy, co prowadziło do przyspieszenia taktowania o 40 procent, ale przy tym samym poziomie zużycia energii.

Innymi słowy, liczba obliczeń na wat wzrastałaby wykładniczo, ale niezawodnie, a tranzystory stawałyby się szybsze, tańsze i zużywałyby mniej energii.

W erze skalowania Dennarda poprawa wydajności była przewidywalnym procesem dla producentów chipów. Po prostu dodali więcej tranzystorów do procesorów i zwiększyli częstotliwości zegara.

Konsument łatwo to zrozumiał: procesor działający z częstotliwością 3,0 GHz był szybszy niż procesor pracujący z częstotliwością 2,0 GHz, a procesory stawały się coraz szybsze. Rzeczywiście, międzynarodowy plan technologiczny dla półprzewodników (ITRS) po osiągnięciu przewidywanych częstotliwości zegara osiągnie 12 GHz do 2013 r!

Jednak obecnie najlepsze procesory na rynku mają częstotliwość podstawową zaledwie 4,1 GHz. Co się stało?

Koniec skalowania Dennarda

Prędkości zegara utknęły w błocie około 2004 roku, kiedy redukcja zużycia energii przestała dotrzymywać kroku kurczeniu się tranzystorów.

Tranzystory stały się zbyt małe, a prąd elektryczny zaczął wyciekać, powodując przegrzanie i wysokie temperatury, co prowadziło do błędów i uszkodzenia sprzętu. To jeden z powodów dlaczego twój chip komputerowy ma radiator. Dennard Scaling osiągnął granice dyktowane prawami fizyki.

Więcej rdzeni, więcej problemów

Ponieważ klienci i całe branże były przyzwyczajone do ciągłego ulepszania szybkości, producenci chipów potrzebowali rozwiązania. Zaczęli więc dodawać rdzenie do procesorów, aby zwiększyć wydajność.

Jednak wiele rdzeni nie jest tak skutecznych, jak zwykłe zwiększanie częstotliwości zegara w jednostkach jednordzeniowych. Większość programów nie może korzystać z wieloprocesorowości. Buforowanie pamięci i zużycie energii to dodatkowe wąskie gardła.

Przejście na chipy wielordzeniowe zwiastowało również nadejście ciemnego krzemu.

Ciemny wiek krzemu

Wkrótce stało się jasne, że jeśli zbyt wiele rdzeni jest używanych jednocześnie, prąd elektryczny może wyciekać, przywracając problem przegrzania, który zabił skalowanie Dennarda na chipach jednordzeniowych.

W rezultacie powstają procesory wielordzeniowe, które nie mogą używać wszystkich swoich rdzeni jednocześnie. Im więcej rdzeni dodasz, tym więcej tranzystorów chipa będzie musiało zostać wyłączone lub spowolnione w procesie znanym jako „ciemny krzem”.

Tak więc, chociaż prawo Moore'a nadal pozwala na umieszczenie większej liczby tranzystorów w chipie, ciemny krzem zjada nieruchomości CPU. Dlatego dodawanie większej liczby rdzeni staje się bezcelowe, ponieważ nie możesz używać ich wszystkich jednocześnie.

Utrzymanie prawa Moore'a przy użyciu wielu rdzeni wydaje się ślepą uliczką.

Jak prawo Moore'a może być kontynuowane

Jednym z rozwiązań jest usprawnienie przetwarzania wieloprocesowego w oprogramowaniu. Java, C ++ i inne języki przeznaczone dla pojedynczych rdzeni ustąpią miejsca takim jak Go, które lepiej działają równolegle.

Inną opcją jest zwiększenie wykorzystania programowalnych przez użytkownika macierzy bramek (FPGA), typu konfigurowalnego procesora, który po zakupie można ponownie skonfigurować do określonych zadań. Na przykład jeden układ FPGA może zostać zoptymalizowany przez klienta do obsługi wideo, podczas gdy może być specjalnie przystosowany do uruchamiania aplikacji sztucznej inteligencji.

Budowanie tranzystorów z różnych materiałów, takich jak grafen, to kolejny obszar badany, aby wycisnąć więcej życia z przewidywań Moore'a. A w dalszej perspektywie obliczenia kwantowe mogą całkowicie zmienić grę.

Przyszłość należy do prawa Koomeya

W 2011 roku profesor Jonathan Koomey wykazał, że szczytowa wydajność energetyczna (wydajność procesora pracującego z maksymalną prędkością) odzwierciedla trajektorię mocy obliczeniowej opisaną w prawie Moore'a.

Zgodnie z prawem Koomeya, od bestii lampowych z lat czterdziestych XX wieku do laptopów z lat dziewięćdziesiątych, obliczenia na dżul energii niezawodnie podwajały się co 1,57 roku. Innymi słowy, co 19 miesięcy bateria zużywana przez określone zadanie zmniejszała się o połowę, co skutkowało 100-krotnym spadkiem energii potrzebnej do wykonania określonego obliczenia co dekadę.

Chociaż prawo Moore'a i skalowanie Dennarda były niezwykle ważne w świecie komputerów stacjonarnych i laptopów, sposób, w jaki używamy procesory zmieniły się tak bardzo, że efektywność energetyczna obiecana przez prawo Koomeya jest prawdopodobnie bardziej odpowiednia ty.

Twoje życie komputerowe jest prawdopodobnie podzielone na wiele urządzeń: laptopy, telefony komórkowe, tablety i różne gadżety. W tej erze rozpowszechniać komputeryżywotność baterii i wydajność na wat stają się ważniejsze niż wyciskanie większej ilości GHz z naszych wielordzeniowych procesorów.

Podobnie, ponieważ większa część naszego przetwarzania jest zlecana na zewnątrz do ogromnych centrów przetwarzania danych w chmurze, implikacje związane z kosztami energii wynikające z prawa Koomeya są bardzo interesujące dla gigantów technologicznych.

Jednak od 2000 r. Podwojenie wydajności energetycznej w całej branży opisane w prawie Koomeya uległo spowolnieniu ze względu na koniec skalowania Dennarda i spowolnienie prawa Moore'a. Prawo Koomeya jest obecnie dostarczane co 2,6 roku, a na przestrzeni dekady efektywność energetyczna wzrasta zaledwie 16-krotnie, a nie 100-krotnie.

Może być przedwczesne twierdzenie, że prawo Koomeya już podąża za Dennardem i Moore'em aż do zachodu słońca. W 2020 roku AMD poinformowało, że efektywność energetyczna procesora AMD Ryzen 7 4800H wzrosła o współczynnik 31.7 w porównaniu z procesorami z 2014 roku, co daje prawo Koomeya w odpowiednim czasie i znaczący wzrost.

Związane z: Nowy chip M1 firmy Apple to zmieniacz gier: wszystko, co musisz wiedzieć

Przedefiniowanie wydajności w celu rozszerzenia prawa Koomeya

Wydajność szczytowa mocy wyjściowej to tylko jeden ze sposobów oceny wydajności obliczeniowej, który może być obecnie nieaktualny.

Ta miara miała więcej sensu w minionych dziesięcioleciach, kiedy komputery były rzadkimi, kosztownymi zasobami, które były zwykle wypychane do granic możliwości przez użytkowników i aplikacje.

Obecnie większość procesorów działa z najwyższą wydajnością tylko przez niewielką część swojego życia, na przykład podczas uruchamiania gry wideo. Inne zadania, takie jak sprawdzanie wiadomości lub przeglądanie Internetu, wymagają znacznie mniej energii. W związku z tym w centrum uwagi staje się przeciętna efektywność energetyczna.

Koomey obliczył tę „wydajność typowego użytkowania”, dzieląc liczbę operacji wykonywanych w ciągu roku przez całkowitej zużytej energii i twierdzi, że powinno to zastąpić normę „wydajności szczytowej” stosowaną w oryginale sformułowanie.

Chociaż analiza nie została jeszcze opublikowana, w latach 2008–2020 oczekuje się, że będzie miała wydajność typowego użytkowania podwajał się co około 1,5 roku, przywracając prawo Koomeya do optymalnego poziomu obserwowanego, gdy prawo Moore'a znajdowało się w jego główny.

Jedną z implikacji prawa Koomeya jest to, że urządzenia będą się zmniejszać i zużywać mniej energii. Zmniejszające się - ale wciąż szybkie - procesory mogą wkrótce mieć tak małą moc, że będą w stanie rysować ich energia bezpośrednio z otoczenia, taka jak ciepło tła, światło, ruch i inne źródła.

Takie wszechobecne urządzenia przetwarzające mają potencjał, aby zapoczątkować prawdziwą erę Internetu rzeczy (IoT) i sprawić, że Twój smartfon będzie wyglądał równie przestarzale, jak behemoty z lampami próżniowymi z lat czterdziestych XX wieku.

Źródło: terren w Wirginii /Flickr

Jednak w miarę jak naukowcy i inżynierowie odkrywają i wdrażają coraz więcej nowych technik optymalizacji „wydajności przy typowym użytkowaniu”, ta część całkowitego zużycia energii komputera prawdopodobnie spadnie tak bardzo, że przy typowych poziomach użytkowania tylko szczytowa moc wyjściowa będzie wystarczająco znacząca, aby pomiar.

Wykorzystanie szczytowej mocy wyjściowej stanie się ponownie miernikiem do analizy efektywności energetycznej. W tym scenariuszu prawo Koomeya ostatecznie napotka te same prawa fizyki, które spowalniają prawo Moore'a.

Te prawa fizyki, które obejmują drugą zasadę termodynamiki, oznaczają, że prawo Koomeya skończy się około 2048 roku.

Obliczenia kwantowe zmienią wszystko

Dobra wiadomość jest taka, że ​​do tego czasu obliczenia kwantowe powinny być dobrze rozwinięte, z tranzystorami opartymi na pojedynczych atomach powszechne, a nowe pokolenie badaczy będzie musiało odkryć cały inny zestaw praw, aby przewidzieć przyszłość przetwarzanie danych.

E-mail
AMD Vs. Intel: Jaki jest najlepszy procesor do gier?

Jeśli budujesz komputer do gier i jesteś rozdarty między procesorami AMD i Intel, czas dowiedzieć się, który procesor jest najlepszy dla Twojego sprzętu do gier.

Powiązane tematy
  • Technologia wyjaśniona
  • procesor
  • Intel
  • Procesor AMD
  • prawo Moore'a
O autorze
Joe McCrossan (7 opublikowanych artykułów)

Joe McCrossan jest niezależnym pisarzem, ochotnikiem zajmującym się rozwiązywaniem problemów technicznych i amatorem naprawy rowerów. Lubi Linuksa, open source i wszelkiego rodzaju magiczne innowacje.

Więcej od Joe McCrossana

Zapisz się do naszego newslettera

Dołącz do naszego biuletynu, aby otrzymywać wskazówki techniczne, recenzje, bezpłatne e-booki i ekskluzywne oferty!

Jeszcze jeden krok…!

Potwierdź swój adres e-mail w wiadomości e-mail, którą właśnie wysłaliśmy.

.