Από ai assets μέχρι τον εγκέφαλο μιας μύγας: τι αλλάζει τώρα στο AI και το 3D
Οι τελευταίες εβδομάδες στον κόσμο του AI και του 3D έφεραν περισσότερα νέα απ’ όσα προλαβαίνει κανείς να παρακολουθήσει!
Από AI generation μέσα στο Cinema 4D και image-to-3D μοντέλα, μέχρι κάτι που πριν λίγα χρόνια θα ακουγόταν σαν επιστημονική φαντασία: μια προσομοίωση εγκεφάλου μύγας που κινεί ένα ψηφιακό σώμα μέσα σε simulation!
Μαζέψαμε τα πιο ενδιαφέροντα από αυτά σε ένα σύντομο roundup:
Maxon + Tencent: Το AI μπαίνει επίσημα στο Cinema 4D
Ένα από τα σημαντικότερα νέα για τους 3D artists αυτόν τον μήνα είναι η συνεργασία της Maxon με την Tencent Cloud για την ενσωμάτωση του Hunyuan 3D (HY3D) engine μέσα στο Cinema 4D.
Στην πράξη αυτό σημαίνει ότι οι χρήστες θα μπορούν να δημιουργούν base 3D models και UV maps απευθείας μέσα στο C4D μέσω text prompts ή image references. Τα assets θα μπορούν στη συνέχεια να επεξεργαστούν κανονικά μέσα στο υπόλοιπο Maxon ecosystem, όπως το ZBrush και το Redshift.
Η ενσωμάτωση αναμένεται μέσα στο 2026 και σύμφωνα με τη Maxon, θα είναι πλήρως προαιρετική, χωρίς αύξηση στη συνδρομή.
Η αντίδραση της κοινότητας είναι, όπως συχνά συμβαίνει, μικτή. Κάποιοι θεωρούν ότι υπάρχουν άλλες λειτουργίες του Cinema 4D που χρειάζονται περισσότερη προσοχή. Άλλοι βλέπουν την κίνηση ως αναπόφευκτη εξέλιξη. Σε κάθε περίπτωση, το να υπάρχουν AI εργαλεία μέσα στο ίδιο το software είναι σαφώς πιο πρακτικό από το να μετακινείται κανείς συνεχώς ανάμεσα σε διαφορετικά web εργαλεία.
Microsoft TRELLIS 2.0: Image-to-3D
Το TRELLIS 2.0 είναι ένα AI open-source μοντέλο για image-to-3D generation που αναπτύχθηκε από τη Microsoft Research.
Το σύστημα μπορεί να δημιουργεί 3D assets σε ανάλυση έως 1536³, με πλήρη PBR materials (Base Color, Roughness, Metallic και Opacity). Αυτό σημαίνει ότι μπορεί να χειριστεί ακόμη και διαφανή υλικά όπως γυαλί, κάτι που ήταν δύσκολο σε προηγούμενα μοντέλα.
God bless open-source devs.
— mv.0x (@mv0x_) March 5, 2026
Now you can create any 3D model in minutes just by uploading a picture.
Free to use, no login required.https://t.co/uPUqEpTceP pic.twitter.com/rVhzmkcDk2
Σε GPU όπως η NVIDIA H100, η δημιουργία ενός asset μπορεί να πάρει από 3 έως 60 δευτερόλεπτα, ανάλογα με την ανάλυση.
Το TRELLIS χρησιμοποιεί επίσης ένα νέο format που ονομάζεται O-Voxel, το οποίο επιτρέπει την αναπαράσταση πιο πολύπλοκης γεωμετρίας, όπως ανοιχτές επιφάνειες ή εσωτερικές δομές.
Το αποτέλεσμα δεν είναι ακόμη έτοιμο για hero assets, αλλά για background στοιχεία, previs ή γρήγορο concepting μπορεί ήδη να είναι αρκετά χρήσιμο.
Autodesk Flow Studio: AI asset generation
Η Autodesk ανακοίνωσε επίσης νέες δυνατότητες στο Flow Studio (το εργαλείο που παλαιότερα ήταν γνωστό ως Wonder Dynamics).
Η νέα λειτουργία Wonder 3D επιτρέπει text-to-3D και image-to-3D generation απευθείας μέσα στην πλατφόρμα!
Το workflow είναι ιδιαίτερα απλό: ανεβάζεις εικόνα → παίρνεις τέσσερα previews → επιλέγεις το αποτέλεσμα → εξάγεις σε GLB, OBJ ή FBX.
Η ποιότητα του texturing χρειάζεται ακόμη βελτίωση, αλλά η γεωμετρία είναι αρκετά καλή για χρήσεις όπως previs, background assets ή virtual production.
AI χαρακτήρας στο UEFN: ένα ενδιαφέρον proof of concept
Ο 3D artist και developer Jerome (InsaneUnreal) δημοσίευσε πρόσφατα ένα πείραμα που συζητήθηκε αρκετά στην κοινότητα.
Κατάφερε να δημιουργήσει έναν playable χαρακτήρα σχεδόν εξ ολοκλήρου με AI εργαλεία και να τον ενσωματώσει σε παιχνίδι μέσα στο Unreal Editor for Fortnite (UEFN).
In this experiment I wanted to try something with facial expressions and have it work with native Unreal Engine tools. I did find that generating the head with an open mouth helped to get some extra details.
— Jerome | InsaneUnreal (@insaneUEFN) March 10, 2026
Creating those blend shapes was still not easy and this result is far… pic.twitter.com/yRS9iRVUgV
Το workflow του περιλάμβανε: Reference creation με Nano Banana 2 + Grok → mesh generation στο Hunyuan 3D Studio → UV unwrap και mesh cleanup στο ίδιο εργαλείο + ελάχιστο Blender → texturing με Microsoft Trellis 2.0 μέσω ComfyUI → rig και facial animation μέσα στο UEFN.
Ένα ενδιαφέρον trick ήταν ότι το πρόσωπο του χαρακτήρα δημιουργήθηκε με ανοιχτό στόμα, ώστε να μπορεί στη συνέχεια να κλείσει και να δημιουργηθούν facial expressions.
Δεν είναι ακόμη τέλειο αποτέλεσμα, αλλά δείχνει πόσο γρήγορα εξελίσσονται τα workflows.
From generated reference images to riding a robot raptor in Fortnite 🦖
— Jerome | InsaneUnreal (@insaneUEFN) January 29, 2026
For now mostly the same workflow, but I also used Nano Banana to get that toe claw in the image lol. Other steps: Images from Grok Imagine, Tripo for raw 3D generation, Hunyuan 3D Studio for lowpoly and UV… pic.twitter.com/KD2Dxa60qY
AI pipelines για games στο Netflix
Η εταιρεία Series Entertainment, που αναπτύσσει story-driven games για το Netflix, δημοσίευσε πρόσφατα ένα case study για το πώς χρησιμοποιεί το ComfyUI στο production pipeline της.
Η ομάδα έχει δημιουργήσει τέσσερις διαφορετικές διαδρομές που καλύπτουν σχεδόν όλη τη διαδικασία παραγωγής: από τα πρώτα concepts μέχρι τα τελικά assets.

Σύμφωνα με την εταιρεία, η προσέγγιση αυτή μπορεί να είναι έως και 180 φορές ταχύτερη από παραδοσιακές διαδικασίες παραγωγής, ενώ έχουν ήδη δημιουργηθεί πάνω από 100.000 assets για διάφορους τίτλους.
Το ενδιαφέρον είναι ότι το εργαλείο χρησιμοποιείται κυρίως για consistency και iteration, όχι απλώς για μαζική παραγωγή εικόνων.
Streamable 4D Gaussian Splatting
Μία από τις πιο εντυπωσιακές τεχνολογίες, που έχουν εμφανιστεί εδώ και καιρό, είναι το Gaussian Splatting.
Το Gaussian Splatting είναι μια τεχνική 3D reconstruction που αναπαριστά μια σκηνή με εκατομμύρια μικρά volumetric points αντί για polygons, δηλαδή εκατομμύρια μικρά τρισδιάστατα “blobs” (Gaussians) που περιγράφουν θέση, σχήμα, χρώμα και διαφάνεια. Το αποτέλεσμα είναι φωτορεαλιστικές σκηνές που μπορούν να αποδίδονται σε real-time.
Η εξέλιξη αυτού είναι το 4D Gaussian Splatting (η προσθήκη της κίνησης και του χρόνου στα 3D splats) που χρησιμοποιείται ήδη σε παραγωγές του Hollywood, όπως στη νέα ταινία Superman και στο music video του ASAP Rocky. Όμως, το τεράστιο πρόβλημα αυτής της τεχνολογίας ήταν πάντα το μέγεθος των αρχείων, που την έκανε σχεδόν αδύνατη για τον απλό χρήστη.
Not long ago, we thought this might be impossible. But here we are: our Gaussian Splatting videos are now streamable, just like regular video.
— Gracia (@gracia_vr) March 13, 2026
No download, no app. 4DGS plays instantly in the browser on headsets, phones and laptops, with no limits on splats or length. Give it a… pic.twitter.com/AcvbDV81mN
Και έτσι ήρθαν τα Streamable 4D Gaussian Splats, τα οποία μεταδίδονται απευθείας σε VR headsets μέσω streaming! Το πιο εντυπωσιακό; Δεν απαιτείται καμία απολύτως λήψη εφαρμογής ή κατέβασμα αρχείων! Μέσω WebXR και μιας γρήγορης σύνδεσης (80+ Mbps), μπορείς να μπεις στην εμπειρία άμεσα από το Meta Quest ή άλλο PCVR headset.
Λύνοντας το πρόβλημα του μεγέθους των αρχείων μέσω streaming, το 4D Splatting ανοίγει πλέον τον δρόμο για πραγματικές virtual συναυλίες και διαδραστικό σινεμά στα σπίτια μας!
Nodes ή viewport;
Ένα ενδιαφέρον pattern που εμφανίζεται σε πολλά AI εργαλεία είναι η χρήση node-based interfaces.
Από το ComfyUI μέχρι το Runway ή το Kling, το node graph έχει γίνει ο βασικός τρόπος σύνδεσης διαφορετικών AI μοντέλων. Ωστόσο πολλοί δημιουργοί επισημαίνουν ότι αυτό που λείπει ακόμη είναι το viewport, δηλαδή η δυνατότητα να βλέπεις σε πραγματικό χρόνο τη σκηνή σου, όπως συμβαίνει σε κάθε 3D εφαρμογή.
And we're live! 🚀 Introducing Intangible – the world's smartest AI 3D tool.
— intangible (@intangibleai) July 9, 2025
We bring spatial intelligence to AI models, giving creatives unmatched speed and control over image, video and interactive 3D world generation.
Spread the word – all plans free through July at… pic.twitter.com/ZxHB8Nnp8H
Νέα εργαλεία, όπως το Intangible AI και το Artcraft, προσπαθούν ήδη να γεφυρώσουν αυτό το κενό, συνδυάζοντας 3D scene graphs με AI generation.
Αν αυτή η προσέγγιση πετύχει, θα μπορούσε να οδηγήσει σε workflows που σου δίνουν την αίσθηση ότι σκηνοθετείς και όχι ότι παίζεις με slot machines!
AI animation για το YouTube
Η Google ανακοίνωσε πρόσφατα επένδυση ενός εκατομμυρίου δολαρίων από το AI Futures Fund στην Animaj, ένα studio που δημιουργεί παιδικό animation για το YouTube και βρίσκεται πίσω από γνωστά franchises όπως το Pocoyo και το Maya the Bee, με εκατοντάδες εκατομμύρια θεατές κάθε μήνα στην πλατφόρμα.
Με τη χρήση AI εργαλείων, η Animaj υποστηρίζει ότι μπορεί να δημιουργήσει ένα ολοκληρωμένο animated επεισόδιο σε λιγότερο από πέντε εβδομάδες, περίπου τέσσερις φορές γρηγορότερα από το παραδοσιακό animation timeline.
Το ενδιαφέρον είναι ότι πριν λίγο καιρό το YouTube δήλωνε πως η αντιμετώπιση του AI slop “αποτελεί κορυφαία προτεραιότητα για την πλατφόρμα”.
AI scripting στο After Effects
Ένα ακόμη trend στο motion design, που εμφανίζεται έντονα το τελευταίο διάστημα, ειναι το λεγόμενο vibe coding.
I just hooked Claude Code into After Effects and…
— Davey (@daveylovescode) March 12, 2026
holy crap pic.twitter.com/v4WgrDfVRY
Με εργαλεία όπως το Claude Code ή το Cursor, πολλοί motion designers χρησιμοποιούν AI assistants για να δημιουργούν scripts και plugins για το Adobe After Effects, ακόμη και χωρίς να γνωρίζουν προγραμματισμό.
Αυτό δεν σημαίνει ότι το AI δημιουργεί animation μόνο του. Σημαίνει όμως ότι εργασίες που παλαιότερα απαιτούσαν scripting μπορούν πλέον να αυτοματοποιηθούν πολύ πιο γρήγορα.
Photoshop Beta: περιστροφή 3D αντικειμένων από 2D εικόνες
Η νέα λειτουργία Rotate Object στο Photoshop Beta επιτρέπει τη μετατροπή ενός 2D αντικειμένου σε περιστρέψιμη 3D αναπαράσταση!
🎉 We just released Rotate Object in Photoshop (beta) 🎉
— Kris Kashtanova (@icreatelife) March 12, 2026
You can now rotate 2D images! 🤯
Then use Harmonize to add light and shadows, to blend it perfectly with the rest of the scene.
It's like Turntable in Illustrator, but instead of vectors, it's pixels in Photoshop! pic.twitter.com/85bvBIjCB9
Στην πράξη; Παίρνεις μια φωτογραφία ενός αντικειμένου και το Photoshop “κατανοεί” τη θέση του στον χώρο ώστε να μπορείς να το γυρίσεις σε οποιαδήποτε γωνία.
Το αποτέλεσμα δεν είναι τέλειο (λειτουργεί μόνο σε 8-bit mode, κοστίζει 20 Generative Credits μετά τις πρώτες 3 δοκιμές), αλλά για product shots, compositing και concept work είναι αρκετά χρήσιμο.
H μύγα που δεν γεννήθηκε ποτέ
Η εταιρεία Eon Systems ανακοίνωσε ότι κατάφερε να δημιουργήσει μια πλήρη προσομοίωση εγκεφάλου μύγας βασισμένη σε πραγματικά δεδομένα ηλεκτρονικής μικροσκοπίας.
There's a fruit fly walking around right now that was never born.@eonsys just released a video where they took a real fly's connectome — the wiring diagram of its brain — and simulated it. Dropped it into a virtual body. It started walking. Grooming. Feeding. Doing what flies… pic.twitter.com/VCJi4tTrrl
— Hattie Zhou (@oh_that_hat) March 7, 2026
Περισσότεροι από 125.000 νευρώνες και 50 εκατομμύρια συνάψεις χαρτογραφήθηκαν και συνδέθηκαν σε ένα simulated σώμα μύγας μέσα σε φυσική προσομοίωση!
Το αποτέλεσμα είναι ένα σύστημα που μπορεί να περπατά, να τρέφεται και να αντιδρά στο περιβάλλον του, όχι μέσω machine learning policy, αλλά μέσω μιας ψηφιακής αναπαράστασης πραγματικού βιολογικού εγκεφάλου!
Ο επόμενος στόχος της ομάδας είναι η προσομοίωση εγκεφάλου ποντικού..
Γιατί έχει ενδιαφέρον για όσους ασχολούνται με ψηφιακούς κόσμους; Επειδή τέτοιου τύπου προσομοιώσεις δείχνουν προς ένα μέλλον όπου τα ψηφιακά όντα, σε games, simulations ή virtual environments, θα μπορούν να έχουν πραγματικά σύνθετες συμπεριφορές!
Τρεις κατευθύνσεις που αρχίζουν να φαίνονται
Αν δει κανείς όλα αυτά τα νέα μαζί, φαίνεται ότι το AI στο 3D εξελίσσεται σε τρεις διαφορετικές κατευθύνσεις.
Η πρώτη είναι η ενσωμάτωση AI μέσα στα υπάρχοντα εργαλεία, όπως το Cinema 4D, το Photoshop ή το After Effects.
Η δεύτερη είναι τα εργαλεία generation, που δημιουργούν 3D assets από εικόνες ή prompts.
Και η τρίτη είναι ίσως η πιο ενδιαφέρουσα: νέες τεχνολογίες που αλλάζουν το ίδιο το production pipeline, όπως το Gaussian Splatting ή τα AI-driven workflows σε μεγάλα productions.
Κάποια από αυτά τα εργαλεία πιθανόν να είναι προσωρινά. Άλλα όμως, όπως το image-to-3D ή το Gaussian Splatting, μπορεί να αλλάξουν πραγματικά τον τρόπο με τον οποίο δημιουργούνται ψηφιακά περιβάλλοντα και χαρακτήρες.
Για όσους ασχολούνται με το 3D, ίσως το πιο χρήσιμο δεν είναι να πάρουν θέση υπέρ ή κατά. Είναι απλώς να παρακολουθούν τι αλλάζει, γιατί το pipeline του αύριο χτίζεται ήδη!
Σχετικά άρθρα
Ακολουθήστε το 3D Trek στο Instagram, Facebook και LinkedIn και γίνετε μέρος μιας δυναμικής κοινότητας 3D δημιουργών! Μείνετε ενημερωμένοι για εκπαιδευτικά προγράμματα και σχολές 3D, ανακαλύψτε ταλαντούχους καλλιτέχνες, design και animation studios, εκδηλώσεις και events και τις τελευταίες εξελίξεις της 3D βιομηχανίας!

