PRAKTYCZNY PRZEWODNIK KROK PO KROKU

Twoje filmy AI
w 4 narzędziach.

Pokażę Wam dokładnie jak sam tworzę filmy AI. Od nagrania głosu po gotowy materiał. Bez teorii, bez ściemy. Tylko to, co klikacie, gdzie wchodzicie i co wpisujecie. Zaczniecie tworzyć samodzielnie jeszcze w tym tygodniu.

HeyGen

Awatar

ElevenLabs

Głos

Higgsfield

Kino AI

LTX Studio

Studio

O co tu chodzi?

Esencja mojego procesu.

Ten przewodnik to esencja tego, jak sam tworzę filmy AI. Wyciągnąłem z tego wszystko, co niepotrzebne, i zostawiłem tylko konkrety. Co klikacie, gdzie wchodzicie, co wpisujecie. Przeprowadzę Was przez to krok po kroku.

Wasze 4 narzędzia

Każde robi co innego. Razem dają Wam kompletny system do produkcji wideo. Sam tego używam na co dzień.

  • AWATAR, czyli HeyGen: Tworzy Waszego cyfrowego klona, który mówi dowolny tekst Waszym głosem. Nagrywacie się raz, a potem generujecie filmy bez kamery.
  • GŁOS, czyli ElevenLabs: Klonuje Wasz głos z 3-5 minutowego nagrania. Działa świetnie po polsku. To jest magia tego całego systemu.
  • KINO AI, czyli Higgsfield: Agregator 15+ modeli wideo AI. Ma 70+ presetów ruchu kamery. Jak chcecie filmowe ujęcia wnętrz, budynków, ludzi, to tutaj.
  • STUDIO, czyli LTX Studio: Platforma all-in-one. Robicie obrazy, wideo, macie spójność postaci (@Character) i produktu (@Product). Wszystko na jednym Timeline.
Mój proces

Jak to się łączy?

To jest mój codzienny workflow. Najpierw klonujecie głos, potem tworzycie awatara, wklejacie skrypt i montujecie. Proste.

ElevenLabsKlonuj głos
HeyGenStwórz awatar
Wklej skrypt
Generuj film
MontażZmontuj + napisy

Higgsfield i LTX Studio dają Wam B-roll, ujęcia nieruchomości, sceny filmowe. Używacie ich do wzbogacenia materiału.

Inwestycja

Ile to kosztuje?

Mówię wprost, żebyście wiedzieli na czym stoicie. To są realne koszty narzędzi.

NarzędziePlan minimumKoszt/msc
HeyGenCreator ($24) lub Pro ($48)100-200 zł
ElevenLabsStarter ($5) lub Creator ($22)22-90 zł
CapCut ProPro ($8)~35 zł
HiggsfieldCinema ($29-$119)115-475 zł
RAZEM~275-800 zł

Moja rada: zacznijcie od HeyGen + ElevenLabs. To jest Wasz fundament. Higgsfield i LTX Studio dokładacie potem, kiedy poczujecie, że chcecie filmowe ujęcia. LTX Studio ma darmowy plan na start.

01

Przygotowanie materiałów.

To robicie tylko raz. Potem korzystacie z tego wielokrotnie. Z mojego doświadczenia, dobrze nagrane materiały źródłowe to 80% sukcesu.

Wideo na awatar

Nagranie materiału na awatar

To jest materiał, z którego HeyGen stworzy Waszego cyfrowego klona. Im lepiej nagracie, tym lepiej będzie wyglądał awatar.

Co przygotować

  • Telefon (iPhone/Android) lub kamera, minimum 1080p
  • Statyw lub stabilne oparcie dla telefonu
  • Oświetlenie: naturalne światło od okna lub ring light. To jest kluczowe.
  • Ciche pomieszczenie. Zamknijcie okna, wyłączcie wentylator.
  • Jednokolorowe ubranie, bez pasków, kratek, drobnych wzorów
  • Jednolite tło, białe, szare lub neutralne ściany

Jak nagrywać

  1. Ustawcie telefon na statywie. Kadr: od pasa w górę. Patrzcie prosto w kamerę.
  2. Mówcie naturalnie 3-5 minut. NIE czytajcie, mówcie swobodnie. Gestykulujcie. AI to łapie.
  3. PION (9:16) na Reels/TikTok. POZIOM (16:9) na stronę WWW.
Unikajcie: okulary z antyrefleksem, duże kolczyki, kapelusz, szybkie ruchy głową, wzorzyste tło. AI tego nie lubi.
Audio dla ElevenLabs

Nagranie próbki głosu

ElevenLabs sklonuje Wasz głos z nagrania. To osobne nagranie, tylko audio. Nie mieszajcie tego z wideo na awatara.

  1. Otwórzcie Dyktafon na telefonie (iPhone: Voice Memos). Telefon 20 cm od ust.
  2. Mówcie naturalnie 3-5 minut. Opowiedzcie o firmie. Nie czytajcie, MÓWCIE. Jak będziecie czytać, AI odwzoruje tę monotonię.
  3. Eksportujcie jako .m4a lub .wav. Trzymajcie na dysku jako backup.
Moja rada dla nieruchomości: Opowiedzcie o typowym dniu w zarządzaniu, jak pomagacie właścicielom. To daje naturalny, ciepły ton, który świetnie działa na klientów.
02

Klonowanie głosu.

ElevenLabs. Wasz głos, dowolny tekst, po polsku. To jest coś, co zawsze robi wrażenie na klientach.

Krok po kroku w ElevenLabs

  1. Zalogujcie się na elevenlabs.io. Plan Starter za $5/msc wystarczy na początek.
  2. Voices → Add Voice → Instant Voice Cloning. Upload nagrania głosu (.m4a / .wav).
  3. Nazwijcie głos. Np. "Ania - United Capital - PL". Opis: "Professional Polish voice, warm, confident"
  4. Kliknijcie "Add Voice" i przetestujcie, wpiszcie zdanie po polsku. Powinno brzmieć jak Wy.

Ustawienia głosu

Te suwaki decydują jak brzmi Wasz klon. Pokażę Wam moje ustawienia na start.

ParametrStrona WWWViral IGCo robi
Stability7560Niższa = więcej emocji. Wyższa = spokojniej.
Clarity + Similarity8075Wyższa = bardziej podobne do oryginału.
Style3050Dodaje "styl". Za dużo = przerysowanie.
Speaker BoostONONPoprawia jakość klonu. Zawsze włączony.
Moja zasada: Film na stronę = wyższa Stability (profesjonalizm). Viral na IG = niższa Stability (energia, emocje). Testujcie, bo każdy głos reaguje trochę inaczej.
Integracja

Połączenie z HeyGen (API Key)

Robicie to raz. Po tym głos pojawi się automatycznie w HeyGen i nie musicie go wgrywać osobno.

  1. ElevenLabs → Profile → API Key → skopiujcie klucz
  2. HeyGen → Settings → Integrations → ElevenLabs
  3. Wklejcie API Key
  4. Wasz głos pojawi się w liście głosów w HeyGen. Gotowe.
Troubleshooting

Problemy z głosem

Najczęstsze problemy, które widzę u klientów:

ProblemPrzyczynaFix
Robotyczny głosZła próbkaNagrajcie ponownie, naturalniej (min. 3 min)
Za monotonnyStability za wysokaZmniejszcie do 55-65
Nie brzmi jak jaClarity za niskaZwiększcie Clarity do 85+
Głos się łamieStability za niskaZwiększcie do 80+
Dziwne pauzyInterpunkcjaUsuńcie nadmiarowe kropki
03

Tworzenie awatara.

HeyGen. Wasz cyfrowy klon, który mówi dowolny tekst Waszym głosem. To jest serce całego systemu.

Tworzenie awatara w HeyGen

Awatara tworzycie RAZ. Potem używacie wielokrotnie. To jest jednorazowa inwestycja czasu.

  1. Zalogujcie się na heygen.com. Plan Creator ($24) lub Pro ($48).
  2. Avatars → Create Avatar → Instant Avatar v2. Upload nagrania wideo z Kroku 01.
  3. Nagrajcie consent video, potwierdzenie zgody na tworzenie awatara. HeyGen tego wymaga.
  4. Wybierzcie typ (Full body / Head & Shoulders). Poczekajcie 10-30 minut na przetworzenie.

Generowanie filmu w HeyGen

Macie awatara, macie głos. Teraz wklejajcie skrypty i generujcie filmy. To jest ten moment, gdzie zaczyna się magia.

  1. Create Video → aspect ratio: 16:9 (strona WWW) lub 9:16 (Reels/TikTok).
  2. Wybierzcie awatara i głos, sklonowany z ElevenLabs (widoczny po połączeniu API).
  3. Wklejcie skrypt do pola tekstowego. Gotowe skrypty macie w Rozdziale 07.
  4. Submit. Tło: białe/biurowe. Speed: 1.0x (strona) lub 1.05x (viral). Subtitles: OFF. Film gotowy w 2-5 min.
Triki skryptowe

Moje triki na naturalność

Parę rzeczy, które odkryłem, i które robią dużą różnicę w jakości:

TrickCo wpisaćEfekt
Pauza"..." w tekścieAwatar milknie na chwilę, naturalniej
EmfazaCAPS (np. "TRZY kroki")Mocniejsze zaakcentowanie
PytanieZdanie z "?"Naturalny ton pytający
Wyliczanie"Po pierwsze... Po drugie..."Auto gesture (liczy na palcach)
Przykład skryptu
// Skrypt do HeyGen (~45s) Cześć, jestem Ania z United Capital. Od 11 lat pomagamy właścicielom mieszkań i domów... w szybkiej, bezpiecznej sprzedaży nieruchomości. To firma rodzinna. Każdą transakcję traktujemy OSOBIŚCIE - bo wiemy, że sprzedaż mieszkania to jedna z NAJWAŻNIEJSZYCH decyzji w życiu. Do tej pory pomogliśmy ponad 180 osobom. Działamy na terenie Warszawy i okolic. Chcesz porozmawiać? Kliknij przycisk poniżej. Rozmowa jest bezpłatna i do niczego nie zobowiązuje.
Ustawienia formatu

Film na stronę (16:9, 45-60s)

  • Resolution: 1080p lub 4K
  • Background: biurowe lub białe
  • Speed: 1.0x | Subtitles: OFF

Viral IG/TikTok (9:16, 15-25s)

  • Resolution: 1080p
  • Background: gradient/proste
  • Speed: 1.05-1.1x | Subtitles: OFF
Opcje tła
Typ tłaKiedyJak
Białe / szareStrona WWWUpload custom image
BiuroFirma usługowaHeyGen stock / foto biura
GradientVirale IGUpload PNG z Canva
WnętrzeNieruchomości!Zdjęcie wnętrza jako tło
TransparentMontaż w programieUstawienie "transparent"
Super trick dla nieruchomości: Wrzućcie zdjęcie wnętrza jako tło awatara. Klient widzi Was na tle mieszkania, które sprzedajecie. Zdjęcia 1920x1080. Robi ogromne wrażenie.
Moja rada, batch production: Generujcie 5-10 filmów naraz. Skrypty w poniedziałek, generowanie we wtorek, montaż w środę. Cały tydzień contentu w 3 sesje robocze. Tak ja to robię.
04

Ujęcia filmowe AI.

Higgsfield Cinema Studio. Od wnętrz po dramę. To narzędzie daje Wam filmową jakość bez ekipy filmowej.

PROMPT + PRESET = FILM

Zasada jest prosta. Prompt opisuje CO jest w scenie. Preset decyduje JAK kamera się porusza. Nie mieszajcie tego.

Ruch kamery NIE wchodzi do promptu. Wybieracie go z listy presetów. To jest kluczowa różnica.

Formuła promptu: [Co jest w kadrze] + [Gdzie/tło] + [Nastrój] + [Oświetlenie]

Presety ruchu kamery

Higgsfield ma 70+ presetów. Wybrałem dla Was te najważniejsze:

PresetEfektKiedy
Dolly ForwardKamera jedzie do przoduWalkthrough, wchodzenie do mieszkania
Orbit Left/RightOkrążanie obiektuPrezentacja wnętrza 360
Zoom In SlowPowolne zbliżenieDetale, emocja, twarz
Crane UpKamera wznosi sięEstablishing shot, budynek
Crane DownKamera opuszcza sięIntro, "lądowanie" w scenie
Tracking RightŚledzenie w prawoOsoba idąca przez wnętrze
Tilt UpPrzechylenie w góręOdkrywanie budynku
StaticBrak ruchuPortret, stabilny kadr
Push In + OrbitZbliżenie + obrótDynamiczne ujęcie

Ustawienia Cinema Studio

Moje sprawdzone ustawienia:

ParametrRekomendacjaCo robi
Duration4-6 sekundSweet spot to 4-5s. Dłuższe zaczynają się "rozjeżdżać".
Motion IntensityMediumLow = subtelny, High = dynamiczny. Medium jest bezpieczne.
Camera SpeedSlow (wnętrza), Normal (ogólne)Wnętrza wyglądają lepiej na Slow.

Gotowe przepisy na ujęcia

Daję Wam gotowe prompty. Po angielsku (lepsze efekty). Polskie tłumaczenie pod spodem.

Walkthrough wnętrza
Prompt: Camera dollies forward through a modern apartment interior, revealing bright living room with large windows, wooden floors, white walls, contemporary furniture, natural daylight streaming in, clean minimalist design, warm inviting atmosphere // Kamera wjeżdża do nowoczesnego apartamentu, // jasny salon z dużymi oknami, drewniana podłoga. // // Preset: Dolly Forward | Duration: 6s // Motion: Medium | Speed: Slow
Budynek z zewnątrz
Prompt: Modern residential apartment building exterior at golden hour, glass balconies and clean architectural lines, warm evening light reflecting on windows, tree-lined street, professional real estate photography style // Apartamentowiec podczas złotej godziny, // szklane balkony, ciepłe wieczorne światło. // // Preset: Crane Up | Duration: 5s // Motion: Medium | Speed: Slow
Kuchnia / Łazienka
Prompt: Modern kitchen with white cabinets and marble countertop, pendant lights above kitchen island, fresh flowers in a vase, morning sunlight from large window, clean and organized, interior design photography, warm welcoming atmosphere // Nowoczesna kuchnia z białymi szafkami i marmurowym blatem, // wiszące lampy nad wyspą, poranne słońce. // // Preset: Orbit Right | Duration: 5s // Motion: Low | Speed: Slow
Osoba w biurze
Prompt: A confident businesswoman walking through a modern office lobby, glass walls and minimalist furniture, natural daylight, professional atmosphere, business casual attire // Pewna siebie kobieta biznesu w lobby biurowym, // szklane ściany, naturalne światło. // // Preset: Tracking Right | Duration: 5s // Motion: Medium | Speed: Normal
Wybór modelu AI

Na testy

Hailuo lub Kling 2.6. Szybkie, tanie. Generujcie 5-10 wariantów, bo AI jest losowy.

Na finał

Sora 2 lub VEO 3.1. Najlepsza jakość, fotorealizm. Do tego używam na ostateczne wersje.

Image-to-Video

Macie zdjęcie i chcecie je ożywić? Tak to robię:

WNĘTRZE → WALKTHROUGH Prompt: Camera slowly dollies forward into the space, subtle light particles floating in air beams, curtains gently swaying PORTRET → OŻYWIENIE Prompt: Subject slowly turns head to the right with a subtle smile, gentle wind moving hair, soft blinking
Lipsync Studio

Podkładanie audio pod wideo

Macie gotowe wideo i chcecie podmienić audio? Higgsfield Lipsync. Chcecie od zera z awatarem? HeyGen. Prosta zasada.

  1. Przygotujcie wideo. Nagrajcie siebie LUB wygenerujcie osobę patrzącą w kamerę.
  2. Przygotujcie audio. Voiceover z ElevenLabs lub własne nagranie. MP3/WAV.
  3. Upload + Start Sync. Sprawdźcie synchronizację, szczególnie "p", "b", "m". To są litery, które najłatwiej wychodzą nie do końca.
05

Spójna postać AI.

LTX Studio. Ta sama osoba w 10 różnych scenach. To jest coś, czego nie da się zrobić tak łatwo w żadnym innym narzędziu.

System Elements (mój workflow)

Tworzycie @Character (postać), @Product (produkt) lub @Style (styl) i wplatacie w prompty. LTX będzie utrzymywał spójność we wszystkich scenach.

  1. Zdjęcie referencyjne. Portret na neutralnym tle, twarz dobrze widoczna. Im lepsze zdjęcie, tym lepszy efekt.
  2. Elements → Create New → Character. Upload. Nazwa: @Ania lub @Michal.
  3. Używajcie @Ania w promptach. LTX zachowa tę samą twarz we wszystkich scenach. To jest mega.

5 spójnych scen z @Character

Pokażę Wam jak wyglądają gotowe prompty na 5 scen z tą samą postacią:

SCENA 1 - INTRO
@Ania standing confidently in front of a modern apartment building, wearing a navy blazer, professional daylight, warm smile, medium shot at eye level, corporate photography style // Stoi pewnie przed budynkiem, granatowa marynarka.
SCENA 2 - MIESZKANIE
@Ania walking through a bright modern apartment, gesturing toward the large windows, sunlight streaming in, wooden floors, camera tracking alongside, medium-wide shot // Idzie przez jasny apartament, wskazuje na okna.
SCENA 3 - UMOWA
@Ania sitting at a modern desk, reviewing documents with a client, both smiling, professional office, warm ambient lighting, over-the-shoulder shot // Podpisanie umowy w biurze.
SCENA 4 - KLUCZE
@Ania handing keys to a happy young couple at the entrance of their new apartment, everyone smiling, bright hallway, natural daylight, medium shot // Wręczenie kluczy.
SCENA 5 - OUTRO
@Ania looking directly at camera with warm confident smile, blurred modern apartment interior in background, soft natural light, portrait close-up // Patrzy w kamerę, zachęcający wyraz.
Fajny trick: Opisujcie ubranie w prompcie i LTX zamieni outfit zachowując twarz. Biurowa: "navy blazer", nieformalna: "casual white shirt". Tak generujecie warianty bez nowego zdjęcia.
Formuła promptu obrazu
[Kto/Co] + [Co robi] + [Gdzie] + [Oświetlenie] + [Kamera] + [Styl]
Formuła promptu wideo
[Kto robi co] + [Ruch kamery] + [Gdzie] + [Nastrój] + [Spec. tech.]

Ruchy kamery, słownik LTX Studio

W LTX ruch kamery wchodzi DO promptu (inaczej niż Higgsfield). Zapamiętajcie tę różnicę:

RuchCo wpisaćKiedy
Pancamera pans slowly to the rightPanorama wnętrza
Zoom inslow zoom into the subject's faceEmocja, detale
Dollycamera dollies forward through the hallwayWchodzenie do mieszkania
Orbitcamera orbits around the productPrezentacja 360
Trackingcamera tracks alongside the walking personOsoba idąca
Cranecamera cranes up from ground levelEstablishing shot
Staticlocked camera, no movementStabilny kadr
Kluczowa różnica: Higgsfield = preset (poza promptem). LTX Studio = w prompcie (wpisujesz ruch kamery w tekst). Nie mieszajcie tego.

Negative prompts

Te frazy mówią AI czego ma unikać. Kopiujcie je 1:1.

Osoby: deformed face, asymmetric eyes, extra fingers, bad teeth, unnatural skin texture, plastic look, crossed eyes, blurry face Wnętrza: blurry, low quality, distorted, watermark, oversaturated, unrealistic lighting, warped walls, floating objects Wideo: flickering, jittery camera, morphing faces, teleporting objects, inconsistent lighting, sudden color shifts, unnatural motion
Lip sync LTX
MetodaJakKiedy
Audio-to-VideoUpload audio → LTX sync ustaVoiceover z ElevenLabs
Character DialogueTekst + głosSzybki test
VEO 3.1 nativeWbudowany głosNajlepsza jakość
@Style

Spójność wizualna

Chcecie ten sam look we wszystkich scenach? Stwórzcie @Style. To działa jak filtr, który trzyma spójną estetykę.

  1. Przygotujcie referencję wizualną (screenshot strony, moodboard).
  2. Elements → Create New → Style. Nazwa: @UCstyle.
  3. Dodajcie @UCstyle na końcu każdego promptu. Gotowe.
Bonus: wyciąganie cech

Alternatywna metoda, referencje wizualne

Mam jeszcze jeden sposób, którego używam. Widzę film albo zdjęcie, które mi się podoba i wyciągam z niego fajne cechy: jak pada światło, jaki jest ruch kamery, jaka kolorystyka, jaki nastrój. Potem te cechy wpisuję w prompt i kieruję AI tak, żeby odwzorowało ten styl.

To jest bardziej zaawansowana technika. Wymaga trochę wyczucia i praktyki, ale daje fenomenalne efekty.

To pokażę Wam na spotkaniu osobistym. Potrzebuję Wam to pokazać na żywo, na ekranie, krok po kroku. Na papierze to za mało. Umówcie się na warsztat i przejdziemy przez to razem.
06

Montaż i publikacja.

Tu się kończy generowanie i zaczyna składanie wszystkiego w całość. Pokażę Wam trzy opcje, które sam używam.

Mój wybór profesjonalny

DaVinci Resolve

Ja osobiście do poważniejszych projektów używam DaVinci Resolve. Tam mogę sobie pokolorować, zmontować, mam pełną kontrolę nad kolorem, dźwiękiem, przejściami. To jest profesjonalny program do montażu, którego używa Hollywood, i jest darmowy w wersji podstawowej.

Jeśli ktoś z Was ma ambicje robić naprawdę dopracowane materiały, warto się go nauczyć. Na warsztacie mogę to pokazać.

DaVinci jest za darmo w wersji podstawowej. Płatna wersja (Studio) jest za jednorazowe ~1300 zł, ale do tego, co robimy, darmowa wystarczy w 100%.
Na co dzień

CapCut, szybki montaż (5-10 min)

Ale na co dzień? CapCut jest super. Do takich codziennych rzeczy, szybkich Reelsów, TikToków, to wystarczy w 100%. I ma jedną mega zaletę: wersję desktopową. Na komputerze się łatwiej ładuje, łatwiej edytuje, macie większy ekran. Polecam.

  1. CapCut Pro → Nowy projekt. Resolution 1080p, aspect ratio 16:9 lub 9:16.
  2. Import filmu z HeyGen. Przeciągnijcie MP4 na timeline.
  3. Auto Captions: Text → Auto Captions → Polish. Styl "Pop" lub "Clean". Sprawdźcie polskie znaki!
  4. Intro (1-2s) i outro (3-5s). Logo, imię, kontakt, CTA.
  5. Muzyka z biblioteki CapCut. Głośność: 10-15%. Fade in: 1-2s. Fade out: 2-3s.
  6. Sprawdźcie sync ust → Eksport. Gotowe.
Szybka alternatywa

Edytor w Instagramie

A jak chcecie naprawdę szybko, to zwykły edytor w Instagramie wystarczy do prostych rzeczy. Wrzucacie film, dodajecie napisy, muzykę z biblioteki IG, przycinacie. Na szybki Reels to jest OK. Nie musicie za każdym razem otwierać CapCuta.

Eksport
PlatformaResolutionBitrateFPS
Strona WWW1920x10808-12 Mbps30
IG Reels1080x19206-8 Mbps30
TikTok1080x19206-8 Mbps30
YouTube1920x108012-16 Mbps30
Nazewnictwo

Trzymajcie porządek w plikach. Mój schemat:

// Schemat: [FIRMA]_[TYP]_[NR]_[TEMAT]_[DATA].mp4 UC_strona_01_kim_jestesmy_20260308.mp4 UC_viral_S1_agent_3proc_20260308.mp4

Gdzie publikować

Moja rekomendacja częstotliwości per platforma:

PlatformaFormatDługośćCzęstotliwość
Strona WWW16:945-60s3-5 filmów (jednorazowo)
Instagram Reels9:1615-25s3-7x/tydzień
TikTok9:1615-25s3-7x/tydzień
YouTube16:945-60s1-2x/tydzień
LinkedIn16:930-60s2-3x/tydzień
Sprawdźcie na telefonie zanim opublikujecie. Kolory i sync ust wyglądają inaczej na małym ekranie. Zawsze to robię.
07

Gotowe skrypty.

Do wklejenia w HeyGen od razu. Każdy jest przetestowany i działa. Podmieńcie dane na swoje i generujcie.

Struktura, strona (45-60s)

Moja sprawdzona struktura na film na stronę:

  1. HOOK (1 zdanie) - przyciągnijcie uwagę
  2. PROBLEM (1-2 zdania) - czego klient się boi
  3. ROZWIĄZANIE (3-4 zdania) - co robicie i jak
  4. DOWÓD (1-2 zdania) - liczby, lata doświadczenia
  5. CTA (1 zdanie) - co zrobić dalej

150-180 słów

Struktura, viral (15-25s)

Virale muszą być krótkie i konkretne:

  1. HOOK (3s) - pytanie, szok, kontrowersja. Tu się wygrywa albo przegrywa.
  2. TREŚĆ (10-15s) - rozwinięcie
  3. CTA (3-5s) - "Link w bio"

50-80 słów

Skrypty na stronę - SKUP
FILM 1 - Kim jesteśmy
Cześć, jestem [IMIĘ] z United Capital. Od 11 lat pomagamy właścicielom mieszkań i domów... w szybkiej, bezpiecznej sprzedaży nieruchomości. To firma rodzinna. Każdą transakcję traktujemy OSOBIŚCIE - bo wiemy, że sprzedaż mieszkania to często jedna z NAJWAŻNIEJSZYCH decyzji w życiu. Do tej pory pomogliśmy ponad 180 osobom. Działamy na terenie Warszawy i okolic. Chcesz porozmawiać o swojej sytuacji? Kliknij przycisk poniżej. Rozmowa jest bezpłatna i do niczego nie zobowiązuje.

~45s | CTA: "Umów rozmowę"

FILM 2 - Jak działa skup
Cały proces składa się z TRZECH kroków. Krok pierwszy - dzwonisz do nas lub wypełniasz formularz na stronie. Opisujesz nieruchomość. To trwa 5 minut. Krok drugi - w ciągu 24 godzin przygotowujemy wycenę. BEZPŁATNIE. Jeśli cena Ci odpowiada... umawiamy się na oględziny. Krok trzeci - podpisujemy umowę u notariusza i przelewamy pieniądze. Cała transakcja może zamknąć się w 14 dni. Bez pośredników. Bez prowizji. Bez ukrytych kosztów. Chcesz sprawdzić ile warte jest Twoje mieszkanie? Kliknij poniżej.

~50s | CTA: "Bezpłatna wycena"

Zarządzanie
FILM 6 - Kim jesteśmy (zarządzanie)
Cześć, jestem [IMIĘ]. Nasza firma zarządza ponad 180 mieszkaniami w Warszawie. Co to znaczy w praktyce? Ty masz mieszkanie. My znajdujemy najemcę, zbieramy czynsz, naprawiamy awarie i rozwiązujemy problemy. Ty dostajesz przelew co miesiąc. Działamy od 11 lat. Mamy 84 opinie w Google ze średnią 4.8. Jeśli masz mieszkanie, które stoi puste... albo najemcę, który sprawia problemy... kliknij poniżej. Porozmawiajmy.

~45s | CTA: "Umów rozmowę"

Virale - SKUP
VIRAL S1
HOOK: Agent bierze 3 procent. Policz ile to NAPRAWDĘ jest. Mieszkanie za 400 tysięcy? To 12 tysięcy złotych prowizji. Za 600 tysięcy? 18 tysięcy. I nie gwarantuje Ci ani ceny, ani terminu. My kupujemy BEZ PROWIZJI. Cenę znasz w 24 godziny. Link w bio.

~18s

VIRAL S3
HOOK: 3 błędy które kosztują 50 tysięcy przy sprzedaży mieszkania. Błąd PIERWSZY - nie sprawdzasz cen transakcyjnych, tylko ofertowe. Oferty zawyżone średnio o 15 procent. Błąd DRUGI - nie negocjujesz z kupującym, bo... "mi wstyd". To nie jest moment na wstyd. Błąd TRZECI - dajesz wyłączność agentowi na 6 miesięcy bez gwarancji sprzedaży. Link w bio.

~22s

VIRAL S5
HOOK: Ile trwa sprzedaż mieszkania? Odpowiedź Cię zaskoczy. Średnia w Polsce? 4-6 MIESIĘCY. W dużym mieście może 3. U nas? Od 7 do 14 DNI. Rekord to 3 dni od pierwszego telefonu do przelewu. Jak to możliwe? Nie szukamy kupującego. MY jesteśmy kupującym. Link w bio - sprawdź ile dostaniesz.

~17s

08

Checklist startowy.

Cała droga od zera do pierwszego filmu. Odznaczajcie kolejne punkty. Dwa, trzy godziny i macie gotowy system.

Jednorazowe (2-3h)
  • Konto HeyGen, Creator ($24) lub Pro ($48)
  • Konto ElevenLabs, Starter ($5) lub Creator ($22)
  • Konto CapCut Pro ($8) lub DaVinci Resolve (darmowy)
  • Nagrać materiał wideo na awatar (3-5 min)
  • Nagrać próbkę głosu (3-5 min dyktafon)
  • Stworzyć awatara w HeyGen
  • Sklonować głos w ElevenLabs
  • Połączyć API Key
Per film (30-45 min)
  • Napisać/wybrać skrypt (10 min)
  • Wkleić w HeyGen → Submit (5-15 min)
  • Pobrać MP4 → CapCut / DaVinci / IG (2 min)
  • Auto Captions → polskie znaki (3 min)
  • Intro/outro + muzyka (3-5 min)
  • Sprawdzić sync ust (1 min)
  • Eksport → test na telefonie (2 min)
  • Opublikować (2 min)
Batch production, 10 filmów w 3 sesje

Tak ja to robię. Trzy sesje w tygodniu i macie content na cały tydzień albo dwa.

Poniedziałek

Napiszcie 10 skryptów (1.5h)

Wtorek

Wrzućcie do HeyGen, generujcie w tle (1h)

Środa

Montaż w CapCut/DaVinci, batch export (2h)

7 Złotych Zasad.

To jest kwintesencja tego, czego się nauczyłem tworząc filmy AI. Zapamiętajcie te zasady.

01

1 film = 1 myśl.

Nie pakujcie 3 tematów w jeden film. Lepiej 3 krótkie niż 1 długi. Zaufajcie mi na tym.

02

Max 180 słów/min.

Naturalne tempo mówienia. Szybciej brzmi nienaturalnie. Wolniej jest nudno.

03

Testuj 2-3 wersje.

Generujcie 5-10 wariantów. AI jest losowy i czasem trzeci wariant jest 10x lepszy od pierwszego.

04

Napisy rób w programie do montażu.

10x więcej kontroli nad stylem napisów niż w HeyGen. Robię to w CapCut albo DaVinci.

05

Spójne oświetlenie.

Te same słowa w KAŻDYM prompcie. "warm golden lighting" wszędzie. To trzyma spójność.

06

Sprawdzaj na telefonie.

Kolory i sync ust wyglądają inaczej na małym ekranie. Zawsze to robię przed publikacją.

07

Zapisuj prompty.

Budujcie sobie bibliotekę sprawdzonych promptów. Nie wymyślajcie od zera za każdym razem.

Najczęstsze problemy.

To są rzeczy, które najczęściej widzę u klientów. Rozwiązania działają.

ProblemPrzyczynaRozwiązanie
Awatar nienaturalnyZłe nagranie źródłoweLepsze światło, wolniejsze ruchy. Nagrajcie jeszcze raz.
Usta nie syncująZły głos / za szybkoSpeed 0.95x, używajcie klonowanego głosu
Dziwne gestySkrypt nie pasujeKrótsze zdania, dodajcie pauzy (...)
Twarz się deformujeZa dużo ruchu kameryStatic / Zoom In Slow, zmniejszcie Motion
Niespójne koloryRóżne opisy oświetleniaTa sama fraza oświetlenia w każdym prompcie
Tekst/logo nieczytelneAI nie radzi sobie z tekstemTekst dodawajcie w CapCut/DaVinci, nie w generacji
Awatar zamieraZa długie zdanieMax 15 słów na zdanie, dodajcie "..."
Obiekt morphuje sięZa złożony promptMniej obiektów w scenie. Prostsze prompty = lepsze efekty.