Kiedy parametry telewizora są istotne dla graczy?
Patrząc na historię gier wideo, widać ewolucję oczekiwań i możliwości technicznych w kwestii grafiki. Pierwsza konsola Sony PlayStation, która pojawiła się w Polsce w umożliwiała wyświetlanie obrazu w rozdzielczości 640x480 pikseli. Podobne osiągi miała PlayStation 2. Dopiero konsola PlayStation 3 z 2006 r. mogła poradzić sobie z wyświetlaniem obrazu w rozdzielczości 1920x1080 pikseli, czyli Full HD. Tylko wówczas w niewielu domach znajdowały się takie telewizory.
W 2013 r. PlayStation 4 była idealnym sprzętem do grania w Full HD, jednak… Niedługo po premierze okazało się, że to za mało. Coraz więcej osób było stać na telewizory 4K, które wykorzystywały też technologię HDR. Pod tym względem konsole – również Xbox – zaczęły odstawać od komputerów. Użytkownicy widzieli to gołym okiem, porównując grafikę w tych samych grach wydawanych PC. Co więcej, platformy streamingowe, takie jak Netflix, zaczęły dostarczać seriale i filmy w 4K. Producenci konsol musieli więc wyjść naprzeciw rosnącym oczekiwaniom i dostosować swoje urządzenia do możliwości nowych telewizorów.
Ulepszona wersja PS4, czyli PlayStation 4 Pro, ma procesor i kartę graficzną przeznaczone do gier i telewizorów 4K. Natomiast konsola dziewiątej generacji – PlayStation 5 z 2020 r. – to sprzęt znacznie mocniejszy, stworzony do grania w 4K w 120 kl./s, do fotorealistycznych animacji i ray tracingu, przygotowany na tytuły i telewizory z rozdzielczością 8K.