Nowoczesna elektronika naprawdę ruszyła z miejsca, gdy trzej mężczyźni z Bell Labs – William Shockley, John Bardeen i Walter Brattain – stworzyli tranzystor typu punktowego w 1947 roku. Przed tym wszystko opierało się na gabarytowych lampach elektronowych, które zużywały ogromne ilości energii i były narażone na awarie. Nowe urządzenia półprzewodnikowe, które opracowali, były znacznie mniejsze, zużywały dużo mniej prądu i pozwalały na drastyczne zmniejszenie rozmiarów urządzeń. Kilka lat później, w 1951 roku, Shockley opracował swoją wersję zwaną tranzystorem warstwowym, która lepiej sprawdzała się w czasie i uczyniła produkcję tych komponentów praktyczną dla szerokiego wykorzystania w różnych branżach. To właśnie otworzyło drogę dla licznych innowacji elektronicznych, które dziś traktujemy jako coś oczywistego.
Pierwszy tranzystory opierał się na germanie, ponieważ działał całkiem dobrze jako materiał półprzewodnikowy. Istniał jednak problem, gdy temperatura przekraczała około 75 stopni Celsjusza, co czyniło je niestabilnymi w większości zastosowań przemysłowych. W połowie lat 60. sytuacja się zmieniła, gdy krzem zaczął dominować jako główny materiał. Krzem wytrzymywał znacznie wyższe temperatury, miał mniejsze przecieki prądu i lepiej współpracował z izolatorami tlenkowymi, które stawały się standardem w branży. W miarę doskonalenia metod wzrostu kryształów i domieszkowania, producenci zaczęli w sposób spójny wytwarzać płytki krzemowe. Ten rozwój okazał się kluczowy dla dalszej miniaturyzacji i zwiększania mocy półprzewodników.
W 1958 roku Jack Kilby z Texas Instruments i Robert Noyce z Fairchild Semiconductor wynaleźli coś przełomowego: obwód scalony. To małe czudo umieszczało wszystkie oddzielne elementy elektroniczne na jednym kawałku krzemu, zamiast rozrzucać je po płytce. W połowie lat 70. pojawiła się duża skalacja integracji, która umożliwiała umieszczenie dziesiątek tysięcy malutkich tranzystorów na każdym chipie. Było to zgodne z przewidywaniami Gordona Moore'a dotyczącymi podwajania mocy komputerów co kilka lat. Z biegiem czasu ulepszenia takie jak techniki fotolitografii czy lepsze metody produkcji płaskich chipów jeszcze umocniły pozycję krzemu jako króla świata cyfrowego. Te postępy umożliwiły nie tylko powstanie naszych codziennych komputerów, ale także smartfonów, serwerów obsługujących strony internetowe oraz nawet niektórych części nowoczesnych centrów danych utrzymujących działanie internetu.
Prawo Moore'a mówi w zasadzie, że liczba tranzystorów na układzie scalonym podwaja się mniej więcej co dwa lata, a to kieruje postępem komputerowym od czasu, gdy Gordon Moore sformułował swoje słynne przewidywanie w 1965 roku. Spoglądając na liczby, widzimy, że rozmiar tranzystorów zmniejszył się z około 10 mikrometrów w latach 70. do poniżej 5 nanometrów obecnie, w 2023 roku, co znacznie zwiększyło zarówno szybkość, jak i efektywność działania tych układów. Istniało coś, co nazywano skalowaniem Dennarda, które utrzymywało stałe zużycie energii w miarę zmniejszania się tranzystorów, jednak ta zasada zaczęła zawodzić około 2004 roku z powodu problemów z prądami upływu i zarządzaniem ciepłem. Zgodnie z najnowszym raportem dotyczącym skalowania półprzewodników z 2024 roku, wszystko to skłoniło branżę do zmiany strategii i przejścia na stosowanie wielordzeniowych architektur zamiast jedynie zwiększania wydajności pojedynczych rdzeni, dlatego producenci koncentrują się obecnie bardziej na przetwarzaniu równoległym niż na podnoszeniu taktowania procesorów.
Gdy schodzimy do wymiarów poniżej 5 nm, sytuacja zaczyna się komplikować ze względu na tunelowanie kwantowe i dokuczliwe pojemności pasożytnicze. Elektrony przestają zachowywać się zgodnie z oczekiwaniami – mają tendencję do przeciskania się przez bariery bramkowe wskutek efektów tunelowych. Powoduje to różnego rodzaju prądy upływowe, które mogą zużywać nawet około 30% całkowitej mocy układu, według badań Ponemona z zeszłego roku. Sytuacja jeszcze się pogarsza przy krótkokanałowych efektach, które zakłócają stabilność napięcia progowego. Jak wskazują badania IEEE z 2022 roku, zmienność wzrasta o około 15% przy tak małych geometriach. Wszystkie te problemy nasilają się wzajemnie i czynią zarządzanie gęstością mocy niezwykle trudnym. W rezultacie producenci musieli znacznie zainwestować w zaawansowane systemy chłodzenia, co zazwyczaj zwiększa całkowite koszty produkcji tych nowoczesnych układów o od 20% do 40%.
Liczba tranzystorów rośnie, ale tradycyjne metody skalowania nie cieszą się już dużym uznaniem wśród ekspertów. Zgodnie z sondażem IEEE z zeszłego roku około dwie trzecie inżynierów zajmujących się półprzewodnikami uważa, że prawo Moore'a dosłownie napotkało mur. Tylko około jedna dziesiąta oczekuje, że wkrótce pojawią się praktyczne krzemowe układy poniżej 1 nm. Większość firm zmienia kierunek, koncentrując się na trójwymiarowym układaniu chipów i łączeniu różnych komponentów zamiast próbować zmniejszać wszystko do jednego elementu. Biorąc pod uwagę najnowsze trendy, świat technologii wydaje się mniej przejmować miniaturyzacją tranzystorów, a bardziej skutecznością współpracy całych systemów. Oznacza to istotny przeskok w sposobie postrzegania rzeczywistego postępu w rozwoju półprzewodników.
Przejście od płaskich tranzystorów planarnych do tych zaawansowanych struktur 3D FinFET było prawdziwym przełomem w lepszej kontroli przepływu prądu. Sztuczka polega na otoczeniu bramki wokół małego, pionowo ustawionego krzemowego żebra, co zmniejsza niechciane przecieki i pozwala na miniaturyzację poniżej 22 nanometrów. Następnie pojawiły się tranzystory typu nanosheet, które dalej rozwijają tę koncepcję, umożliwiając inżynierom dostosowanie szerokości kanałów przewodzących w zależności od potrzebnych napięć. Analizując osiągnięcia branży, te trójwymiarowe konstrukcje dobrze sprawdzają się nawet przy rozmiarach mniejszych niż 3 nm, podczas gdy starsze projekty planarne przestały być wykonalne około 28 nm, ponieważ problemy z przeciekami i marnowaną energią całkowicie wymknęły się spod kontroli.
Projekt tranzystora typu Gate-all-around (GAA) wyprowadza technologię FinFET na kolejny poziom, otaczając kanał całkowicie materiałem bramkowym ze wszystkich kierunków. Taka pełna powłoka zapewnia znacznie lepszą kontrolę nad właściwościami elektrycznymi i zmniejsza niechciane przecieki o około 40 procent. Ponadto te urządzenia przełączają się szybciej i dobrze działają nawet przy skalowaniu poniżej 2 nm. Tymczasem struktury Complementary FET (CFET) idą krok dalej, ustawiając tranzystory typu n i typu p jeden na drugim w pionie. To sprytne rozwiązanie podwaja liczbę elementów logicznych mieszczących się w tej samej przestrzeni, bez konieczności zwiększania powierzchni chipu. Obie architektury – GAA i CFET – pomagają rozwiązać poważne problemy, przed którymi stają producenci podczas zarządzania efektami elektrostatycznymi i optymalizacji układów, gdy cechy półprzewodnikowe kurczą się do wymiarów atomowych.
Największe zakłady produkcyjne półprzewodników przemieszczają się w kierunku procesów produkcyjnych poniżej 2 nm, choć według obecnych prognoz tranzystory typu gate-all-around (GAA) mogą trafić do masowej produkcji około 2025 roku. Obecnie większość szlaków rozwoju branżowego koncentruje się na osiąganiu lepszej wydajności przy mniejszym zużyciu energii zamiast jedynie umieszczania większej liczby tranzystorów na chipach. Niektóre zakłady pilotażowe rozpoczęły eksperymenty z technikami hybrydowego łączenia w celu tworzenia tych zaawansowanych struktur monolitycznych 3D, co świadczy o tym, że firmy myślą o szerszym obrazie działania całych systemów. Powolne wprowadzanie tych technologii podkreśla, dlaczego tak duże środki finansowe trafiają ciągle do najnowocześniejszego sprzętu litograficznego i zaawansowanych systemów osadzania. Bez tych kosztownych ulepszeń cała branża szybko by się zatrzymała.
Integracja monolityczna 3D pozwala producentom tworzyć wiele warstw aktywnych na jednej podłożu za pomocą sekwencyjnych technik wytwarzania. W połączeniu z technologią CMOS warstwową taka konstrukcja umożliwia integrację obwodów logicznych bezpośrednio obok komponentów pamięci. Obecnie widzimy, że pamięci SRAM są umieszczane bezpośrednio pod rdzeniami obliczeniowymi. Nadal jednak występują problemy związane z rozpraszaniem ciepła między warstwami oraz przesyłaniem sygnałów z jednej warstwy do drugiej. Jednakże ostatnie postępy w metodach niskotemperaturowego wytwarzania, a także ulepszone przejścia przez krzem (te maleńkie połączenia przechodzące prosto przez płytki krzemowe), wskazują na realną możliwość wprowadzenia produktów na rynek około 2026 roku, szczególnie w przypadku akceleratorów AI i urządzeń do obliczeń brzegowych. Niektórzy eksperci uważają, że tego rodzaju skalowanie przestrzenne może utrzymać prawo Moore’a przy życiu jeszcze przez około dziesięć lat, zanim napotkamy kolejny mur technologiczny.
Materiały zwane dichalkogenkami metali przejściowych, lub krótko TMD, obejmują takie substancje jak disiarczek molibdenu (MoS2) i diselenek wolframu (WSe2). Te materiały są na poziomie atomowym bardzo cienkie i pozwalają elektronom przemieszczać się przez nie dość szybko. Gdy spojrzymy na naprawdę małe cechy półprzewodników, te TMD osiągają stosunek prądu włącz/wyłącz powyżej 10 do potęgi 8 przy pracy napięciem zaledwie 0,7 wolta. To rzeczywiście o około 74 procent lepszy wynik niż ten osiągany przez krzem, według najnowszych badań przeprowadzonych przez IMEC w 2023 roku. Sposób, w jaki te materiały układają się warstwowo, pomaga kontrolować uciążliwe efekty krótkiego kanału, nawet gdy wymiary spadają do około 5 nanometrów. Ze względu na tę właściwość wiele badaczy uważa, że TMD mogą stać się ważnymi elementami konstrukcyjnymi następnej generacji układów scalonych i innych urządzeń logicznych w nadchodzących latach.
Mimo ich potencjału, powszechne wdrażanie TMDs jest utrudniane przez gęstość defektów podczas osadzania na skalę talii. Epitaksja selektywna obszarowo zmniejszyła stany pułapkowe o 63%, jednak do produkcji masowej konieczna jest gęstość defektów poniżej 3% – tego poziomu udało się dotąd osiągnąć jedynie w warunkach laboratoryjnych (2024 Semiconductor Roadmap).
Tranzystory wykonane z węglowych nanorurek mogą przewodzić elektrony w linii prostej bez rozpraszania, gdy ich długość wynosi około 15 nanometrów. Zapewnia to im prędkości przełączania niemal trzy razy wyższe niż w przypadku tradycyjnej krzemowej technologii FinFET. Istnieje jednak haczyk. Naukowcy nadal mają problemy z kontrolowaniem chiralności (która decyduje o właściwościach elektrycznych) oraz uzyskiwaniem spójnych wyników domieszkowania, co utrudnia masową produkcję niezawodnych urządzeń. Grafen stanowi kolejny interesujący przypadek. Choć charakteryzuje się doskonałą przewodnością, nie posiada naturalnej przerwy energetycznej, przez co jest mało przydatny w standardowych obwodach cyfrowych. Trwają jednak obiecujące badania nad kombinacjami warstw grafenu i heksagonalnego azotku boru. Takie hybrydowe struktury mogą znaleźć zastosowanie w niszowych aplikacjach, gdzie możliwe będzie efektywne wykorzystanie ich unikalnych cech.
Dążenie do wprowadzenia materiałów 2D do powszechnej produkcji koncentruje się wokół metod osadzania warstw atomowych, które dobrze działają z dielektrykami o wysokiej stałej dielektrycznej, takimi jak HZO. Najnowsze dane z grupy branżowej z 2024 roku pokazują, że większość zakładów produkcyjnych już testuje urządzenia przeznaczone do tych materiałów. Około 8 na 10 linii posiada obecnie jakiś rodzaj wyposażenia do przetwarzania materiałów 2D. Nadal jednak istnieje problem w końcowej fazie produkcji, gdzie trzeba wykonać nowe połączenia metalowe. Problemem jest wrażliwość na ciepło, ponieważ wiele procesów nie może przekraczać 400 stopni Celsjusza bez ryzyka uszkodzenia komponentów. To ograniczenie temperaturowe zmusza inżynierów do poszukiwania kreatywnych rozwiązań umożliwiających prawidłowe łączenie tych zaawansowanych materiałów bez utraty wydajności.
Oczekuje się, że liczba urządzeń IoT do 2030 roku osiągnie około 29 miliardów, co oznacza, że tranzystory muszą zużywać mniej niż 1 mikroamper w trybie czuwania, aby zapewnić efektywne działanie. Ostatnie badania wykazały, że obwody podprogowe oraz tranzystory tunelowe z efektem polowym, o których ostatnio słyszymy, mogą zmniejszyć prądy upływowe o prawie 60 procent w porównaniu ze standardową technologią MOSFET. Co to oznacza w zastosowaniach rzeczywistych? Pozwala to systemom monitoringu środowiska, a nawet niektórym implantowanym urządzeniom medycznym, działać przez lata na jednym ładowaniu, jednocześnie zachowując wystarczającą moc obliczeniową do prawidłowego wykonywania swoich zadań. Przemysł półprzewodnikowy intensywnie rozwija te innowacje, ponieważ zdaje sobie sprawę, jak kluczowe stają się długotrwałe baterie w wielu różnych dziedzinach.
Najnowsze tranzystory z węglika krzemu (SiC) i azotku galu (GaN) osiągają sprawność około 99,3%, gdy są stosowane w falownikach solarnych, co pomaga rocznie ograniczyć emisję CO2 o około 2,1 miliona ton. Najnowsze badania z raportów infrastruktury energetycznej wskazują, że te zaawansowane komponenty przełączające zmniejszyły straty mocy o około 40% w zastosowaniach sieci inteligentnych od czasu zapisanych danych z 2020 roku. Producenci coraz częściej sięgają również po techniki pakowania na poziomie płytek. To podejście nie tylko redukuje dokuczliwe straty rezystancyjne, ale także dobrze współgra z obecnym sprzętem produkcyjnym o średnicy 300 mm, bez konieczności drastycznych przebudów linii produkcyjnych.
Czujki neuromorficzne wykorzystujące tranzystory ferroelektryczne (FeFET) osiągają 1000 razy lepszą efektywność energetyczną na operację synaptyczną niż GPU, umożliwiając wydajne wdrażanie sztucznej inteligencji na obrzeżach sieci. Elastyczne organiczne tranzystory cienkowarstwowe osiągają obecnie ruchliwość nośników rzędu 20 cm²/V·s i wytrzymują 500 cykli gięcia, co umożliwia tworzenie trwałych, nadających się do prania monitorów zdrowia.
Współczesny projekt tranzystorów balansuje pomiędzy prądem włączenia (ION), szybkością przełączania, kosztem i trwałością, dostosowując się do potrzeb konkretnych zastosowań. Tranzystory stosowane w motoryzacji działają niezawodnie w temperaturze 175°C, podczas gdy wersje biomedyczne spełniają rygorystyczne wymagania dotyczące współczynnika uszkodzeń na poziomie 0,1% przez okres 15 lat. Takie podejście specyficzne dla zastosowania zapewnia, że postęp technologiczny przekłada się na rzeczywistą niezawodność i wartość.
Jaki był główny przełom dokonany przez laboratoria Bell Labs w 1947 roku?
W 1947 roku naukowcy z Bell Labs wynaleźli tranzystor kontaktowy. To umożliwiło, że urządzenia elektroniczne stały się znacznie mniejsze i bardziej wydajne w porównaniu do lamp elektronowych używanych wcześniej.
Dlaczego krzem stał się preferowanym materiałem zamiast germanu w tranzystorach?
Krzem zastąpił german jako główny materiał półprzewodnikowy w połowie lat 60., ponieważ mógł pracować w wyższych temperaturach, miał mniejsze przecieki i lepiej współdziałał z izolatorami tlenkowymi.
Co to jest prawo Moore'a i dlaczego jest istotne?
Prawo Moore'a przewiduje, że liczba tranzystorów na układzie scalonym podwaja się mniej więcej co dwa lata, co napędza postęp w mocy obliczeniowej i efektywności.
Czym są technologie FinFET i GAA?
FinFET i bramka otaczająca kanał (GAA) to zaawansowane architektury tranzystorów, które zapewniają lepszą kontrolę elektryczną i mniejsze przecieki, dzięki czemu nadają się do mniejszych rozmiarów chipów.
Czym są materiały 2D i jaka jest ich rola w technologii tranzystorów?
materiały 2D, takie jak TMD, zawierają cienkie warstwy atomowe, które umożliwiają lepszy ruch elektronów, oferując potencjalne korzyści efektywności w porównaniu z tradycyjnymi warstwami krzemu w przyszłych półprzewodnikach.
W jaki sposób innowacje w dziedzinie tranzystorów przyczyniają się do efektywności energetycznej?
Innowacje w dziedzinie tranzystorów, w tym projekty o ultra niskim poborze mocy i materiały energooszczędne, znacząco redukują zużycie energii w urządzeniach IoT, technologiach solarnych oraz inteligentnych sieciach energetycznych.