AIUTO...CHI CONOSCE L’ITALIANO? PARTE QUATTORDICI

16768707273

Comments

  • TizianoTiziano Posts: 359

    eman said:

    @Tiziano si ho provato, ma gia dal secondo frame mi cambia troppo (sia l'illuminazione che la forma).

    Ho avuto risultati migliori con Dreamlux.ai, i movimenti del volto erano buoni, il personaggio è rimasto abbastanza "integro" a parte le mani (ma non si è mosso più di tanto) e non mi ha cambiato i colori del rendering oiginale. Comunque con una sola immagine si ottiene una specie di morphing più che una vera animazione.

     Hai usato Grok 4.0?

    A me non dà risultati così scarsi.

  • TizianoTiziano Posts: 359

    eman said:

    @Tiziano si ho provato, ma gia dal secondo frame mi cambia troppo (sia l'illuminazione che la forma).

    Ho appena provato ad animare il tuo Zangief, ma non mi sembra che l'abbia cambiato, a parte la posa.

    Senza mettere alcun prompt ha semplicemente cominciato a flettere i muscoli come un bodybuilder. 

    Forse Grok è stato migliorato ultimamente.

  • CriosCrios Posts: 2,962

    @Eman no mi basta DA, X lo uso solo per le promozioni dei lavori. NSFW per NSFW, visto che ora sei anche mio follower, non guardare troppo a fondo la mia di Gallery wink

  • CriosCrios Posts: 2,962

    Cioè, come al solito sono meglio i Bi-Weekly freebiees che le ca..te del festival. 25 anni buttati nel gabinetto.

  • emaneman Posts: 122

    @Tiziano allora ho provato di nuovo Grok (io ho usato Grok imagine, con Grok 4 non so come si fa) e i risultati sono stati migliori di come speravo! Ho fatto camminare un personaggio verso la camera e il movimento è venuto molto naturale e realistico e questa volta non mi ha cambiato tonalità e il personaggio è rimasto integro! Anche io avevo provato con Zangief la prima volta, ma era venuto male... ora ho provato un png con sfondo trasparente e qualità minima (avevo solo 10 punti) ma il risultato mi soddisfa molto!

    @Crios haha, per me non è assolutamente un problema e poi ho già guardatowink

  • CriosCrios Posts: 2,962
    edited November 1

    Ma, Grok non è l'AI di X?

    Porca trota, non è perfetto ma funziona discretamente.

    Post edited by Crios on
  • ImagoImago Posts: 5,649

    Crios said:

    Ma, Grok non è l'AI di X?

    Sì, è quella che era finita nei pasticci a causa delle immagini "calde" realizzate con i volti di persone che non avevano dato il consenso. Motivo in più per non usare quella roba. 

    Per fortuna stanno lavorando tutti in perdita e tra non molto crolleranno del tutto. Ho letto che una delle aziende più grosse (non ricordo se era OpenAi) spende dieci volte quello che poi torna indietro, tra data center, hardware, sistemi di raffreddamento a circuito aperto e ed energia elettrica.

    Ormai la gente si è resa conto che gli LLM sono sono fuffa e in certi casi pure pericolosi. Vedo che in molti casi le "IA" hanno inventato di sana pianta dati e link ad articoli inesistenti, attribuito opere a persone inventate e perfino cancellato interi database aziendali e cercato di nascondondere il fattaccio con dati fasulli.

  • TizianoTiziano Posts: 359
    edited November 1

    Crios said:

    Porca trota, non è perfetto ma funziona discretamente.

    Esatto.

    E a questo punto mi sorge un dubbio: quand'è che un'immagine o un video viene definito "AI generated"?

    In fondo l'AI ha solo animato il tuo video. TU hai fatto l'immagine di partenza.

    E se io faccio un fumetto con immagini create in Daz Studio e poi modificate in Photoshop (che è pieno di AI), è da ritenersi "AI generated" (e quindi schifato da tutti?)

    ---

    Ma come si fa ad allegare un video? ^_^;

     

    Post edited by Tiziano on
  • emaneman Posts: 122

    Io non ci vedo niente di male ad animare un proprio modello con l'AI... però capisco bene perché a tanti non piace, è un po come barare. Se avessi tempo e un computer più potente mi piacerebbe provare con l'animazione tradizionale, ma non ho nè l'uno nè l'altro.

    Grok mi ha dato buoni risultati, ma ho fatto fare un animazione di Zangief da un mio amico che ha Midjourney ed è venuta meglio!

    Appunto, Photoshop usa filtri AI... non è in fondo la stessa cosa?

    Ho provato a postare un animazione AI sui social... mi hanno massacrato! laugh

  • TizianoTiziano Posts: 359

    Come si fa a provare Midjourney?

    E' un'app?

  • TizianoTiziano Posts: 359

    eman said:

    Ho provato a postare un animazione AI sui social... mi hanno massacrato! laugh

    Forse non hanno ben inteso che l'immagine di partenza l'hai fatta tu.

     

  • emaneman Posts: 122

    @Tiziano lui usa Midjourney su Discord ma c'è anche il sito... io non ho provato perchè credo sia solo a pagamento.

    Riguardo ai social ho spiegato che il modello l'ho fatto io ma non credo sia quello il problema... comunque non me ne frega una sega, tanto penso che li chiuderò tutti 'sti cosi che mi fanno solo perde tempo... facebook l'ho già chiuso.

  • TizianoTiziano Posts: 359

    eman said:

    tanto penso che li chiuderò tutti 'sti cosi che mi fanno solo perde tempo... facebook l'ho già chiuso.

    Ma no, dai... non essere precipitoso. ^_^;

    Tienili aperti, magari senza usarli, così se in futuro cambi idea... 

  • ImagoImago Posts: 5,649

    eman said:

    Appunto, Photoshop usa filtri AI... non è in fondo la stessa cosa?

    Quelli sono STRUMENTI per agevolare il tuo workflow. Anche io uso un software per creare la base seamless delle textures o creare degli effetti speciali su di esse. Ma non fa nulla da solo nè prende materiale da terzi, fa tutto con i materiali che io ho creato ed io regolo ogni singolo dettaglio per ottenere esattamente quello che mi serve. Poi ci dipingo sopra le ultime cose perchè sia perfetto ed unico con il mio stile.

    Gli LLM generativi esaminano un prompt e grattano dai loro modelli pezzetti di immagini (fatte da altri) per darti qualcosa di molto lontano da quello che ti serve. E tu non hai fatto nulla nel mentre se non pigiare un tasto. Quello che esce non ha nulla di tuo o di unico, ti basta guardare DA che ormai è inondata di AI e vedrai immagini tutte uguali con variazioni dettate unicamente dagli errori dei modelli. Sono tutti dritti come pali con sorrisi storti e occhi impastati.

    E anche quando animi un tuo still... Di tuo c'è solo la prima immagine, tutto il resto è fatto da altri. Magari vuoi che il tuo personaggio faccia un salto all'indietro e atterri su una piattaforma di pietra alla sue spalle. La AI lo fa chinare e sprofondare nel terreno mentre diventa tutto marrone. Ritenti ma al tuo personaggio crescono altre due braccia che si staccano dal corpo e volano indietro.
    Con qualsiasi software ci metti meno di cinque minuti a realizzare una scena del genere ed ottieni esattamente quello che desideri. Ed è completamente tuo, con il tuo stile e il tuo ingegno.

    E poi, per favore, non ditemi che ci vuole un PC potente... Io realizzo animazioni colossali con un hardware di fascia medio-bassa. Con 3Delight e Filament non c'è nemmeno bisogno di una GPU high-end. Perfino IRay con le giuste impostazioni non ha bisogno di GPU eccessive (tanto non è realistico in ogni caso).

     

  • CriosCrios Posts: 2,962

    @Imago scusa ma che AI usi? Quello che dici si ricorda di quando Will SMith mangiava gli spaghetti. E' vero che Gork anima si e no 6 secondi in tutti, ma cambi di colore della pelle, o braccia in più non mene ha fatte. E ieri ho fatto 8 animazioni, oltre a quella che ho postato, per i promo video dei miei personaggi.

  • ImagoImago Posts: 5,649

    Crios said:

    @Imago scusa ma che AI usi? Quello che dici si ricorda di quando Will SMith mangiava gli spaghetti. E' vero che Gork anima si e no 6 secondi in tutti, ma cambi di colore della pelle, o braccia in più non mene ha fatte. E ieri ho fatto 8 animazioni, oltre a quella che ho postato, per i promo video dei miei personaggi.

    Ne ho provate un paio ma dopo non ne ho usato nessuna. Ogni tanto ci riprovo nella speranza di trovare un tool utile, ma sono tutte orientate nel partire da qualcosa di già pronto e modificarlo oppure generare cose non richieste. Tanto vale che mi ci metto io a farlo.

    Un paio di settimane fa ne ho provato una che si chiama qualcosa come "Horse 2.0" o giù di lì. Ho chiesto la texture seamless di una pelle di drago con squame regolari, mi ha dato un lucertolone su una spiaggia. Messo un prompt più "ricco" e si, stavolta la pelle di drago è uscita... Ma le squame erano tutte storte e di colori diversi. E non era Seamless. 300 euro di corrente sprecata a lato server ed ettolitri di acqua sporcata per nulla.

    Per avere risultati migliori dovrei scaricare in locale le IA e addestrare dei modelli (con enorme spesa di risorse) oppure comprare dei modelli enormi o usare dei Lora che aggiungono ai prompt la possibilità di usare UNA posa specifica e spesso non funziona nemmeno bene.

    Il tempo che passi a scrivere, modificare, provare e riprovare i prompt lo si usa in modo molto più proficui mettendosi a farlo da sè.

  • emaneman Posts: 122

    @Imago grazie per il chiarimento e scusami, io non uso Photoshop per cui perdona la mia ignoranza. E' vero che non ci vuole un PC tanto potente, ma per fare un rendering realistico come piace a me mi ci vuole minimo un'ora. Non uso 3Delight perché non mi piace e Filament lo uso per il preview, ma per un rendering finale uso Iray photoreal (il mio sogno sarebbe poter usare Arnold!).

    Secondo me copiare un movimento e copiare un immagine sono due cose completamente diverse, ora non so come funziona l'AI quindi preferisco non dire niente così evito di dire castronerie. Comunque se non modifica il mio personaggio e il movimento risulta fluido e naturale per me va bene.

  • ImagoImago Posts: 5,649

    eman said:

    ma per fare un rendering realistico come piace a me mi ci vuole minimo un'ora.

    Hai provato a modificare le impostazioni di render? Come ho detto varie volte io sono riuscito a portare a meno di mezzo minuto il render di ogni fotogramma in scene complesse con molti effetti e scarsa illuminazione.

    Fai un test con la questo bench: https://www.daz3d.com/forums/discussion/341041/daz-studio-iray-rendering-hardware-benchmarking/p1#Section 5.2

    E dimmi quanto tempo ci mette a completarla.

  • TizianoTiziano Posts: 359

    eman said:

    Comunque se non modifica il mio personaggio e il movimento risulta fluido e naturale per me va bene.

    Un altro aspetto molto interessante sono le espressioni, più realistiche di quelle ottenibili solo con DazStudio. 

  • ImagoImago Posts: 5,649

    Tiziano said:

    Un altro aspetto molto interessante sono le espressioni, più realistiche di quelle ottenibili solo con DazStudio. 

    Come nel video che il nostro buon Crios ha postato qui?  cool

    Non volermene Crios, ma ogni volta che le "opere" delle IA vengono esposte, queste rendono la mia tesi sempre più forte!  cheeky

    Una scena così semplice ci metti meno di mezz'ora a settarla, animarla e renderizzarla e viene perfetta come dovrebbe essere. wink

  • emaneman Posts: 122

    @Imago ho provato il bench; dopo 40 minuti l'ho stoppato perché non potevo più aspettare ed era al 52%. Io non ho una nvidia per cui il mio rendering è tutto CPU. So che posso diminuire un po i tempi con i vari settaggi, ma non voglio compromettere troppo la qualità.

    @Tiziano vero. però ho notato che maggiori sono i movimenti (sia del corpo che del volto) maggiori sono i cambiamenti rispetto all'originale. Una semplice camminata va bene, ma se provo a fargli alzare le braccia riesco a vedere che va ad attingere da qualche altra parte...

  • TizianoTiziano Posts: 359

    Purtroppo non so come postare video.

    Altrimenti potrei postare qualche esempio che mi sembra soddisfacente.

    ^_^;

     

  • emaneman Posts: 122

    @Tiziano che cosa hai usato? Ho provato Midjourney e l'animazione facciale è venuta bene! Anche quando apre la bocca e si vedono i denti e la lingua!! anche se la risoluzione è un po troppo bassa per poter giudicare veramente.

    Non lo so come si posta un video, non credo si possa postare direttamente, credo tu debba postare il link del video.

  • TizianoTiziano Posts: 359

    eman said:

    @Tiziano che cosa hai usato? Ho provato Midjourney e l'animazione facciale è venuta bene! Anche quando apre la bocca e si vedono i denti e la lingua!! anche se la risoluzione è un po troppo bassa per poter giudicare veramente.

     

     

    Ho usato Grok Imagine, facendo dire delle cose al personaggio e indicando l'espressione/posa da assumere.

    Il risultato non è male, soprattutto per le mie esigenze, che in realtà non sono quelle di ottenere una animazione fatta e finita, bensì quelle di ottenere una serie di immagini tra cui scegliere quella con l'espressione/posa giusta da usare in un fumetto.

    Ho sentito dire che Midjourney non è censurata. Ti risulta?

     

  • ImagoImago Posts: 5,649
    edited November 3

    eman said:

    @Imago ho provato il bench; dopo 40 minuti l'ho stoppato perché non potevo più aspettare ed era al 52%. Io non ho una nvidia per cui il mio rendering è tutto CPU. So che posso diminuire un po i tempi con i vari settaggi, ma non voglio compromettere troppo la qualità.

    IRay non ha mai avuto una gran qualità fin dall'inizio per cui non rischi nulla. wink In ogni caso, ti consiglio di procurarti almeno una GTX 1060. Io ne avevo una installata tempo fa, poi sono passato ad una RTX 2070 Super e adesso sono su una RTX 3060 Ti. I setaggi che uso per IRay sono quelli che usavo con la 1060, sono ancora buoni. Con la GTX 1060, la scenza di benchmark renderizza in circa due minuti mentre con la 3060 Ti ci vogliono trentacinque secondi, con questo risultato:

    Come vedi la qualità non perde troppo e considera che i miei settaggi sono per ottenere più velocità, per cui puoi sempre aumentare leggeremente il numero di iterazioni o migliorare qualche setaggio per avere le tue agognare fireflies o aberrazioni cromatiche come spesso fa IRay. cheeky

    Benchmark_IRay.png
    1280 x 720 - 619K
    Post edited by Imago on
  • emaneman Posts: 122

    @Tiziano prima non lo era ma ora si, perlomeno l'ultima versione. Ha avuto problemi anche con Thanos, per via del copyright. Alla fine te lo fa però ti dice che non lo puoi condividere. Grok invece non ha fatto storie. I risultati sono molto simili, ma mi sembra che il rendering di grok sia più fedele all'originale.

    @Imago 35 secondi?? Che i-nvidia!!! Purtroppo non mi posso permettere una GPU del genere... se potessi fare dei rendering in pochi secondi mi troverei dei mocap e farei un casino di animazioni. Approposito volevo chiederti, come hai risolto i piedi che scivolano? Io ho anche comprato un plugin che dovrebbe tenerli ancorati (ora non mi ricordo come si chiama), ma non funziona, almeno non con i custom characters.

  • ImagoImago Posts: 5,649

    eman said:

    @Imago 35 secondi?? Che i-nvidia!!! Purtroppo non mi posso permettere una GPU del genere... se potessi fare dei rendering in pochi secondi mi troverei dei mocap e farei un casino di animazioni. Approposito volevo chiederti, come hai risolto i piedi che scivolano? Io ho anche comprato un plugin che dovrebbe tenerli ancorati (ora non mi ricordo come si chiama), ma non funziona, almeno non con i custom characters.

    Ragazzo, ho appena guardato su EBay, ho scovato subito una GTX 1060 da 3Gb a 40 euro e un paio di modelli da 6Gb a 70 euro. Non sono così care da non tentarsela. wink Inoltre con le migliorie a IRay 3 Gb sono abbastanza per fare piccole cose, non ci fai i colossi che faccio io di solito ma una scenetta riesci a farcela entrare.

    Per i piedi non uso spesso dei plugin in quanto faccio prima ad animare la camminata a mano, però di tanto il tanto adopero Sticky Feet e per i modelli custom o non compatibili Magic Pointer e Magic Twister dal negozio DAZ. Oppure Walk-it dal sito di Pilning: http://www.pilning.net/ anche se raramente mi da dei buoni risultati, lo uso spesso per i personaggi di "sfondo"

    Poi più spesso uso Pin Me Down, Hold On e Autolimb di MCasual presi dal suo sito: https://sites.google.com/site/mcasualsdazscripts10 , sono incredibilmente precisi ma necessitano di un pò di pazienza in più.

  • Angel_XAngel_X Posts: 50
    @eman : lascia stare la GTX1060 e cerca una RTX 2070 super. Ho un notebook con quella scheda video e funziona molto bene, se pensi che è in versione mobile quella per desktop sarà sicuramente migliore. Ho anche un pc fisso della ASUS ROG che monta una RTX4070 e non cambia moltissimo. Spero tu riesca presto a raggiungere i risultati che desideri in animazione personaggi... concordo con @imago sul fatto che le AI non possono dare quello che una persona riesce a fare, vederemo in futuro cmq sono convinta che il processo dovrà essere tutto per mezzo delle AI.
  • emaneman Posts: 122

    Grazie a tutti per i consigli... ho un notebook ma ormai è vecchio e preferisco comprare un PC nuovo, e poi non sono capace ad assemblare un computer.

    Il plugin che ho io si chiama LimbStick, è per G9, ma a me da risultati scarsissimi. Se devo animare preferisco esportare tutto in Blender e usare rigify, funziona veramente bene. Però è un lavorone... se mi pagassero lo farei anche ma per ora mi accontento di animare con l'AI.

  • ImagoImago Posts: 5,649

    Angel_X said:

    @eman : lascia stare la GTX1060 e cerca una RTX 2070 super.

    Vero, ma per esperienza se non hai troppe pretese una 1060 è abbastanza "per iniziare", poi dipende dalle necessità di ognuno.

    Riguardo le IA, no, dubito avranno un impatto positivo. Sono utili in certi ambiti limitati come ricerca, progettazione e simili, per tutto il resto sono sono degli sfascioni inutili. Per fortuna stanno per affondare, così ce ne liberiamo come con gli NFT, Il futurissimo per l'arte.

Sign In or Register to comment.