Back

GeForce RTX 4060 Ti 16G - najlepsza karta graficzna dla Stable Diffusion XL

Płyty główne ,

Karty graficzne ,

Peryferia ,

Desktopy ,

Monitory ,

Obudowy i komponenty

Jeśli przez ostatnie kilka miesięcy korzystałeś z Internetu, prawdopodobnie widziałeś w mediach społecznościowych posty, artykuły i filmy dotyczące sztucznej inteligencji (SI, lub z ang. AI) i treści, które może ona wygenerować. Pomysł na sztuczną inteligencję, który zaproponowała organizacja OpenAI, a mianowicie ChatGPT, jest zdecydowanie najpopularniejszym tego typu rozwiązaniem. Jego interfejs w stylu czatu pozwala użytkownikom na interakcję z modelem SI w celu zadawania mu pytań, wydawania poleceń i zlecania mu wykonania zadań, pisania kodu, a nawet przygotowywania odpowiedzi złożonych z całych zdań, akapitów, czy pisania całych artykułów!

Apart from these text-based models like ChatGPT, there’s also been a surge in more visual forms of AI models that can generate images based on a prompt (like MidJourney, Stable Diffusion, DALL-E, etc.). You can ask these models to create digital art based on a prompt like this:

Prompt:
Kosmiczny pancernik, powodujący rozpad obiektów na cząstki atomowe. ujęcie kinowe + dynamiczna kompozycja, niesamowita szczegółowość, wyostrzanie, detale + złożone detale + profesjonalne oświetlenie, oświetlenie filmowe + 35mm + anamorficzny + lightroom + kinematografia + bokeh + flara obiektywu + ziarno filmu + HDR10 + 8K + Roger Deakins, ((kinowy)), idealna kompozycja, hiperrealistyczne, bardzo szczegółowy, 8k, wysoka jakość, trendy w sztuce, trendy na artstation, ostrość, zdjęcie studyjne, misterne szczegóły, bardzo szczegółowe

Negative Prompt:
(3d, kreskówka, anime, szkice), (najgorsza jakość:2), (niska jakość:2), (normalna jakość:2), niska rozdzielczość, normalna jakość, ((monochromatyczny)), ((skala szarości)), zła anatomia, niewidoczny, przycięty, brzydki, zdeformowany, zmutowany, ((młody)), EasyNegative, obrazy, szkice, (najgorsza jakość: 2), (niska jakość:2), (normalna jakość:2), niska rozdzielczość, normalna jakość, ((monochromatyczny)), ((skala szarości)), plamy na skórze, trądzik, przebarwienia skóry, plamy starcze, żołądź, dodatkowe palce, mniej palców, (brzydkie oczy, zdeformowana tęczówka, zdeformowane źrenice, zrośnięte usta i zęby:1. 2), (skóra pozbawiona szczegółów, półrealistyczna, cgi, 3d, render, szkic, kreskówka, rysunek, anime:1. 2), tekst, zbliżenie, przycięte, poza kadrem, najgorsza jakość, niska jakość, artefakty jpeg, brzydkie, duplikat, chorobliwy, okaleczony, dodatkowe palce, zmutowane dłonie, źle narysowane ręce, źle narysowana twarz, mutacja, zdeformowane, rozmazane, odwodniony, zła anatomia, złe proporcje, dodatkowe kończyny, sklonowana twarz, oszpecony, rażące proporcje

Kroki:
30, Sampler: DPM++ 2M Karras, CFG scale: 7, Seed: 189104945, Rozmiar: 1024x1024, Model hash: 31e35c80fc, Model: sd_xl_base_1.0, Clip skip: 2, Wersja: v1.5.1

Oto wynik uzyskany przy użyciu jednego z tych promptów:

Spaceship 4060ti

Zrozumiałe jest to, że uzyskanie dostępu do tak potężnych narzędzi wywróciło do góry nogami całe branże. Chociaż żaden model sztucznej inteligencji nie jest bliski skopiowaniu umysłu człowieka to, jeśli chodzi o sztukę, grafikę, pisanie i ogólnie kreatywność, wiele zawodów zaczyna dostrzegać jego wpływ.

Obecnie treści generowane przez sztuczną inteligencję są używane przede wszystkim jako pomoc przy tworzeniu standardowych materiałów (tekstu, fragmentów kodu, obrazów lub grafiki), ponieważ, jak się okazuje dość często zawierają błędy z różnych dziedzin. Mało tego, chatbot Google’a, Bard AI, popełnił duży, merytoryczny błąd już na swojej pierwszej demonstracji!

To dlatego, użyteczność sztucznej inteligencji będzie się dopiero rozwijać wraz z upływem czasu. Jednak, już teraz możemy zaobserwować pojawienie się nowszych modeli sztucznej inteligencji, które z powodzeniem zastępują poprzednie wersje.

Pamięć VRAM i modele AI: Ile potrzebujesz tej pamięci?

Niektóre dostępne obecnie narzędzia AI wyróżniają się ze względu na swój charakter otwartego oprogramowania Open Source, dając użytkownikom, firmom i organizacjom możliwość lokalnego hostowania tych modeli na ich sprzęcie, bez obawy o prywatność lub bezpieczeństwo przetwarzanych w modelu AI danych.

Chociaż dużym firmom nie brakuje ani infrastruktury, ani funduszy na samodzielne hostowanie tych modeli, osoby prywatne i profesjonaliści, którzy chcą wykorzystać sztuczną inteligencję, mogą stanąć tutaj przed sporym wyzwaniem. Jednym z powodów, dla których modele AI mogą być bardzo powolne, a nawet wręcz nieobsługiwane na naszym, nawet najnowocześniejszym sprzęcie, jest zapotrzebowanie na pamięć VRAM. A właśnie z pamięci tej dość intensywnie korzystają te modele.

Minimalne wymagania dla Stable Diffusion XL

Jednym z takich przykładów jest nowo wydany model Stable Diffusion XL (SDXL) od Stability AI. Firma opisuje go jako „najbardziej zaawansowaną”, wydaną do tej pory wersję tego systemu.

Model ten może teraz generować ulepszone twarze, czytelny tekst i dużo bardziej estetyczną grafikę przy użyciu krótszych promptów. Te ulepszone możliwości wiążą się jednak z kosztami sprzętowymi, a konkretnie z wymaganiami dotyczącymi pamięci VRAM i wydajności procesora graficznego.

Czego więc dokładnie potrzebujesz, aby cieszyć się ulepszeniami SDXL na swoim komputerze w domu?

Po pierwsze, Stability AI zaleca do tego systemu kartę graficzną Nvidia, więc użyjemy produktów obecnej i poprzedniej generacji tak, aby lepiej zrozumieć, jakiej wydajności można się po nich w tym modelu AI spodziewać. Chociaż Stability AI w opublikowanej przez siebie informacji prasowej zaleca minimum 8 GB pamięci VRAM to, chcieliśmy też sprawdzić efekt działania modelu przy większych pojemnościach pamięci VRAM.

Czy samo zalecane minimum (lub bardzo nieznaczne jego przekroczenie) drastycznie wpływa na wydajność, czy też mocniejszy GPU może zrównoważyć brak wystarczającej pamięci VRAM?

Aby odpowiedzieć na te pytania, sprawdziliśmy w naszym laboratorium, jak działa nowy model na sprzęcie obecnej i poprzedniej generacji. Uzyskane dane powinny pozwolić Ci podjąć bardziej świadomą decyzję przy zakupie odpowiedniej do Twoich potrzeb karty graficznej.

Testy w środowisku SDXL dla kart graficznych z serii GeForce z różnymi procesorami graficznymi.

W naszych testach wykorzystamy karty graficzne z serii RTX 4060 Ti 16 GB, RTX 3080 10 GB i RTX 3060 12 GB.

Zacznijmy od prostej kompozycji artystycznej przy użyciu domyślnych parametrów po to, aby sprawdzić jak zachowują w tym modelu różne procesory graficzne.

1024 x 1024
Rozmiar pamięci VRAM (GB)
Szybkość (sek.)
RTX 4060 Ti 16G
11,4 GB
16,0 s
RTX 3080 10G
9,7 GB
65,1 s
RTX 3060 12G
11,7 GB
27,2 s


rtx gpu stable diffusion xl

rtx gpu stable diffusion xl

Wyniki te są zaskakujące prawdopodobnie dla tych osób, które koncentrują się zwykle na gamingowych benchmarkach.

RTX 4060 Ti 16 GB z 16 GB pamięci VRAM z łatwością wyprzedził konkurencję, wykonując zadanie w 16 sekund. Na drugim miejscu, dzięki 12 GB pamięci VRAM, uplasował się RTX 3060 12 GB z czasem 27,2 sekundy. Nie jest to może świetny wynik, ale wciąż to całkiem niezły rezultat.

Niestety, brak wystarczającej pamięci VRAM na karcie z procesorem RTX 3080 oznacza, że jego surowa moc obliczeniowa jest bezużyteczna. Uzyskaliśmy tu bardzo słaby wynik wynoszący aż 65,1 sekundy! Tak więc nowoczesny RTX 4060 Ti 16 GB pokonuje wysokiej klasy kartę RTX 3080 poprzedniej generacji z ~ 4x szybszym czasem generowania obrazu.

SDXL Benchmark: 1024x1024 + LoRA

Podnieśmy trochę poprzeczkę, dobrze? W następnym teście wypróbujemy LoRA.

Techniki LoRA lub Low-Rank Adaptation umożliwiają precyzyjne dostrojenie modeli Stable Diffusion do określonych stylów graficznych lub postaci. Technika ta jest jednak dużo bardziej obciążająca dla pamięci VRAM. Zobaczmy więc, jak poradzą sobie tutaj nasi zawodnicy.

Użyjmy teraz techniki LoRA do wygenerowania dzieła sztuki „Cybergirl”, aby sprawdzić, jak duża może być rozbieżność pomiędzy kartą graficzną z wystarczającą ilością pamięci VRAM a modelem, który ma tej pamięci dużo.

1024 x 1024 + LoRA
Rozmiar pamięci VRAM (GB)
Szybkość (sek.)
RTX 4060 Ti 16G
15,5 GB
17,0 s
RTX 3080 10G
9,6 GB
98,8 s
RTX 3060 12G
11,5 GB
26,8 s


rtx gpu stable diffusion xl

rtx gpu stable diffusion xl

Tutaj RTX 3080 jest z łatwością deklasowany przez karty klasy 60 z większą ilością pamięci VRAM. RTX 4060 Ti 16 GB ponownie znalazł się na szczycie stawki, potrzebując zaledwie 17 sekund na wygenerowanie obrazu, podczas gdy RTX 3080 pozostaje w tyle ze ślimaczym tempem 98,8 sekundy.

SDXL Benchmark: 1024x1024 + LoRA + ControlNet

Utrudnijmy teraz nieco zadanie kartom klasy 60, wprowadzając dodatkowe warunki przy użyciu ControlNet.

Po pierwsze, wyjaśnijmy czym dokładnie jest ControlNet? Mówiąc najprościej, jest to model sieci neuronowej, którego można użyć do dalszego kontrolowania i dostrajania kompozycji (wyników) Stable Diffusion. Pozwala on powiedzieć systemowi Stable Diffusion, że oczekujesz wyraźnego odniesienia do żądanego projektu, dodając więcej warunków do wyników. Takie działanie jeszcze bardziej udoskonali otrzymany rezultat tak, aby znacznie lepiej pasował on do tego, czego potrzebujesz.

Zajrzyj na stronę ControlNet na GitHubie, aby dowiedzieć się więcej i zapoznać się z dokumentacją dotyczącą konfiguracji środowiska!

1024 x 1024 + LoRA + ControlNet
Rozmiar pamięci VRAM (GB)
Szybkość (sek.)
RTX 4060 Ti 16G
15,2 GB
48,7 s
RTX 3080 10G
9,7 GB
51 s
RTX 3060 12G
11,5 GB
89,2 s


rtx gpu stable diffusion xl

rtx gpu stable diffusion xl

Konkurencja jest teraz dość wyrównana, a RTX 3080 niemal dogonił RTX 4060 TI 16 GB i ostatecznie pokonał RTX 3060 12 GB. Niemniej, nawet w tym scenariuszu z dość dużą ilością obliczeń, RTX 4060 Ti 16 GB bez problemu zajmuje pierwsze miejsce.

Stable Diffusion XL RTX 4060 Ti GPU Benchmarks 1

SDXL Benchmark: 1024x1024 + skalowanie w górę

Spróbujmy teraz dorzucić trochę skalowania w górę. Czy nasi 60. rywale nadal będą mogi nadążyć za znaczną mocą skalowania RTX 3080? Do tych testów użyjemy upscalera Real Enhanced Super-Resolution Generative Adversarial Networks, znanego również pod nieco bardziej strawnym akronimem - R-ESRGAN 4x+.

1024 x 1024 skalowanie 2x
Rozmiar pamięci VRAM (GB)
Szybkość (sek.)
RTX 4060 Ti 16G
10,8 GB
5,5 s
RTX 3080 10G
10 GB
8,6 s
RTX 3060 12G
10,4 GB
7,8 s


rtx gpu stable diffusion xl

W przypadku obrazu 1024x1024 przeskalowanego do 2x, RTX 4060 Ti 16 GB wyprzedza zarówno RTX 3080, jak i RTX 3060 12 GB, potrzebując zaledwie 5,5 sekundy na ukończenie zadania, co czyni go o 36% szybszym niż RTX 3080 10 GB.

1024 x 1024 skalowanie 4x
Rozmiar pamięci VRAM (GB)
Szybkość (sek.)
RTX 4060 Ti 16G
10,5 GB
10 s
RTX 3080 10G
10 GB
13 s
RTX 3060 12G
10,4 GB
12,3 s


rtx gpu stable diffusion xl

rtx gpu stable diffusion xl

Przepaść pomiędzy RTX 4060 Ti 16 GB a konkurencją zmniejsza się w przypadku skalowania 4x przy użyciu upscalera R-ESRGAN 4x+. Teraz RTX 4060 Ti 16 GB jest „tylko” o 23% szybszy od RTX 3080 10 GB, podczas gdy RTX 3060 12 GB nieznacznie wyprzedził RTX 3080. Niemniej, RTX 4060 Ti 16 GB nadal utrzymuje prowadzenie.

Jak widać na podstawie kilku ostatnich wyników, im bardziej intensywne są obciążenia związane ze skalowaniem, tym bliżej RTX 3080 do 60. konkurencji.

Stable Diffusion XL upscale RTX 4060 Ti GPU Benchmarks 2

Najlepsza karta graficzna dla Stable Diffusion XL

Jeśli chodzi o modele sztucznej inteligencji, takie jak Stable Diffusion XL, posiadanie karty wyposażonej w więcej niż wystarczającą ilość pamięci VRAM jest bardzo ważne. Na podstawie powyższych testów łatwo zauważyć, że RTX 4060 Ti 16 GB jest najbardziej opłacalną kartą graficzną do generowania obrazów AI, jaką można obecnie kupić.

The Best Value RTX Graphics Card for Stable Diffusion XL RTX 4060 Ti 16GB

Więcej informacji na temat SDXL i innych modeli Diffusion opracowanych przez Stability AI można znaleźć na stronie GitHub firmy Stability AI.


Dowiedz się więcej o karcie graficznej GeForce RTX™ 4060 Ti GAMING X SLIM 16G:
https://pl.msi.com/Graphics-Card/GeForce-RTX-4060-Ti-GAMING-X-SLIM-16G

Subskrybuj naszego bloga

Bądź na bieżąco w kwestii sprzętu, wskazówek i wiadomości.

Klikając tutaj, wyrażasz zgodę na przetwarzanie Twoich danych osobowych przez [Micro-Star International Co., LTD.] w celu przesyłania Ci informacji o [produktach, usługach i nadchodzących wydarzeniach MSI]. Należy pamiętać, że można zrezygnować z subskrypcji newsletterów MSI w tym miejscu w każdym momencie.

Dalsze szczegóły dotyczące naszych działań związanych z przetwarzaniem danych są dostępne w dokumencie Polityka prywatności MSI