Czym jest rozdzielczość ekranu?
Rozdzielczość to jeden z podstawowych parametrów wyświetlania materiałów wideo i grafiki. Określa on ich wymiary, a więc dokładną szerokość oraz wysokość. Obie wartości podawane są zawsze w pikselach, które są pojedynczymi i najmniejszymi składowymi cyfrowego obrazu. Dla przykładu, wideo w standardowej obecnie rozdzielczości Full HD ma wymiary 1920 na 1080 pikseli, w 4K osiąga natomiast rozmiary 3840 na 2160 pikseli.
Dodajmy, że rozdzielczość determinuje również proporcje obrazu. Obecnie praktycznie wszystkie urządzenia skonstruowane są z myślą o pracy w standardzie 16:9. Odtwarzając np. starsze filmy zapisane w formacie 4:3, po obu bokach ekranu pojawią się czarne pasy. Sytuacja jest podobna jeżeli odtwarzamy film kinowy kręcony w proporcjach panoramicznych, wówczas paski pojawią się na dole oraz górze ekranu.
Warto podkreślić, że ekrany LCD w telewizorach i monitorach technicznie zbudowane są z myślą o wyświetlaniu obrazu w rozdzielczości, do jakiej zostały zaprojektowane, wynika to bezpośrednio z gęstości i liczby pikseli w ich matrycy. Telewizory Full HD nie są więc w stanie obsłużyć poprawnie obrazu w 4K. Nie będą miały natomiast problemu z wyświetlaniem treści w niższej rozdzielczości.
Rozdzielczość 4K – co to?
Technologia 4K jest bardzo często opisywana również skrótem UHD (Ultra High Definition). Jej nazwa wywodzi się wprost od około 4 tysięcy horyzontalnych pikseli wyznaczających długość wyświetlanego obrazu w tym standardzie. Jak już zaznaczyliśmy, treści odtwarzane w rozdzielczości 4K posiadają wymiary 3840 na 2160 pikseli. Oznacza to, że tworzone są one z czterokrotnie większej liczby pikseli niż w rozdzielczość Full HD.
Poza wyróżnionym już najpopularniejszym i powszechnie stosowanym wariantem 4K używanym w telewizorach, monitorach czy domowych projektorach, branża filmowa, a także fotograficzna, korzystają także z rzadszych wersji standardu 4K, które odznaczają się innymi proporcjami ekranu niż 16:9.
Pierwsze eksperymenty z obrazem w rozdzielczość 4K były prowadzone jeszcze w latach 80. Komercyjne wykorzystanie technologii stało się jednak możliwe dopiero wraz z odejściem od analogowych ekranów kineskopowych i upowszechnieniem się wyświetlaczy ciekłokrystalicznych, które są w stanie obsłużyć sygnał w wysokiej rozdzielczości. W połowie lat 2000. w sklepach pojawiły się pierwsze telewizory obsługujące standardy HD Ready 720p (1280 na 720 pikseli) oraz Full HD 1080p (1920 na 1080 pikseli). Monitory, projektory i telewizory pracujące w 4K stały się powszechnie dostępne dekadę później i od tamtej pory stopniowo pojawiają się w domach coraz większej rzeszy konsumentów.
Zalety rozdzielczości 4K
Treści dostępne w 4K charakteryzują się znacznie większym poziomem detali niż w przypadku rozdzielczości Full HD. Wynika to bezpośrednio z kilkukrotnie większej liczby pikseli tworzących obraz. Warto jednak pamiętać, że prawdziwe różnice teoretycznie zobaczmy jedynie wówczas, gdy np. filmy lub seriale zostały przystosowane do wyświetlania w naprawdę wysokiej rozdzielczości. Najlepsze efekty osiągniemy więc, streamując treści w 4K z popularnych serwisów VoD oraz oglądając filmy na płytach Blu-ray 4K. Należy też pamiętać, że w przypadku telewizorów 4K i Full HD znaczące różnice w jakości pomiędzy nimi dostrzeżemy w panelach, których przekątne przekraczają około 50 cali.
W ostatnich latach producenci ekranów coraz częściej montują w nich specjalne procesory odpowiadające za poprawę jakości obrazu w niższej rozdzielczości. Przy pomocy specjalnych algorytmów mogą one wydobyć dodatkowe detale i wyostrzyć obraz w niższej rozdzielczości, zbliżając jego jakość do natywnego 4K.