Nextech3D.ai meldet mehrere Patente für generative KI für die Erstellung bahnbrechender 3D-Modelle für die globale E-Commerce-Branche mit einem Marktvolumen von 5,5 Billionen USD an

WERBUNG
LoopsterPanel
WERBUNG
freelancermap.de
WERBUNG
Become An Actor - eBook
WERBUNG
Gehaltsvorschuss. Sofort!
WERBUNG
Smartbroker
WERBUNG
Allensbach University
WERBUNG
KREDIT.DE
WERBUNG
thekey.ACADEMY
WERBUNG
Bürobedarf Blitec
WERBUNG
Namefruits

Das Unternehmen meldet mehrere wichtige Patente für seine revolutionäre generative KI an

Toronto (Ontario, Kanada), den 21. März 2023 / IRW-Press / – Nextech3D.AI (vormals Nextech AR Solutions Corp. oder das Unternehmen) (OTCQX: NEXCF) (CSE: NTAR) (FWB: EP2), ein Anbieter von durch generative KI-gesteuerten 3D-Modellen für Amazon, Procter&Gambl, Kohls und andere große E-Commerce-Händler, freut sich bekannt zu geben, dass das Unternehmen bereits sein zweites Patent für die Umwandlung von 2D-Fotos in 3D-Modelle angemeldet hat.

Diese Patente positionieren das Unternehmen als führender Anbieter im rasch wachsenden Bereich der Umwandlung von 2D-Fotos in 3D-Modelle in der 5,5 Billionen USD schweren weltweiten E-Commerce-Branche; dieser Bereich wird auf einen Wert von 100 Milliarden USD geschätzt. Nextech3D.ai nutzt seine neu entwickelte KI als Treiber für seine diversifizierten 3D-/AR-Geschäftsbereiche, unter anderem Arway.ai (OTC: ARWYF / CSE ARWY), Toggle3D.ai und Nextech3D.ai.

Titel der Patentanmeldung: Fixed-point diffusion for robust 2D to 3D conversion and other applications (Fixpunkt-Diffusion für robuste 2D-in-3D-Konvertierung und andere Anwendungen).

Ein entscheidender Faktor für den Erfolg von Nextech3D.ai bei der 3D-Modellierung und die Fähigkeit, die Marktnachfrage zu decken, ist die generative künstliche Intelligenz (KI). Dieses Patent baut auf den zuvor vom Unternehmen angemeldeten Patenten auf.

Anfang März 2023 wurde ein Patent mit dem Titel Generative AI for 3D Model Creation from 2D Photos using Stable Diffusion with Deformable Template Conditioning (Generative AI für die 3D-Modellierung aus 2D-Fotos anhand einer stabilen Diffusion mit deformierbarer Vorlagenkonditionierung) angemeldet, und Ende letzten Jahres meldete das Unternehmen ein Patent für die Erstellung komplexer 3D-Modelle über Teile an.

Mit der bahnbrechenden KI-Technologie, die diesen Patenten zugrunde liegt, erlangt das Unternehmen eine Führungsposition im Bereich 3D-Modellierung für die E-Commerce-Branche; damit ist das Unternehmen gut aufgestellt, um im Jahr 2023 und darüber hinaus eine erhebliche Ertragsbeschleunigung und einen signifikanten Cashflow zu erzielen.

Nextech3D.ai baut auf seinen früheren Patenten auf und wird die Fixpunkt-Diffusion einsetzen, um zu lernen, wie man 3D-Modelle aus 2D-Referenzfotos konstruiert. Dazu startet das Unternehmen mit einfacheren Objekten und einzelnen Teilen, bevor es zu komplexeren, mehrteiligen Objekten übergeht.

Nima Sarshar, Chief Technology Officer von Nextech3D.ai, merkte dazu an: Wir freuen uns, mit der Entwicklung unserer Fixpunkt-Diffusionsmodelle eine neue, zuverlässige und innovative Art der Generierung von maßstabsgetreuen 3D-Modellen aus 2D-Referenzfotos anbieten zu können. Unsere neue Patentanmeldung unterstreicht unser Engagement, Innovationen im Bereich der generativen KI voranzutreiben, und wir freuen uns auf weitere Erfolge und Fortschritte.

Diffusionsmodelle bieten eine Lösung für die Erstellung von 3D-Modellen aus 2D-Referenzfotos, entweder im Ganzen oder Teil für Teil durch die Entwicklung differenzierbarer, deformierbarer Vorlagen zur Umwandlung in 3D-Teile, die auf einem oder mehreren Referenzfotos des Teils basieren.

Wie bereits gemeldet, hat Nextech3D.ai in den vergangenen Jahren Zehntausende hochwertiger, vollständig texturierter, fotorealistischer 3D-Assets mit Hunderttausenden einzelnen Teilen aufgebaut. Diese Teile gehen in die Teilebibliothek von Nextech3D.ai ein, werden durch zufällige Sichtungen synthetisch wiedergegeben und eingesetzt, um neue Diffusionsmodelle zu trainieren, die in der Lage sind, 3D-Netzteile aus Referenzfotos zu rekonstruieren.

Der erste bereinigte Datensatz des Unternehmens mit über 70.000 3D-Objekten und mehr als 2,2 Millionen synthetisch wiedergegebenen Referenzfotos stehen nunmehr für das Training bereit. Dies ist immer noch ein winziger Anteil aller Teile und Assets in der Modellbibliothek, und doch ist es bereits mehr als der größte öffentlich zugängliche 3D-Datensatz namens ShapeNet mit seinen 51.000 Modellen unterschiedlicher Qualität.

Technische Erläuterung

Deep-Learning-Diffusionsmodelle wurden erfolgreich zur Erstellung realistischer Bilder eingesetzt, indem einem Trainingsbeispiel Rauschen hinzugefügt und ein neuronales Netz zur Bewertung sowie Entfernung des Rauschens in jedem Schritt eingesetzt wurde.

Dahinter steht die folgende allgemeine Idee: Beginnend mit einem Trainingsbeispiel, etwa einem Bild, wird dem Bild sukzessive Rauschen beigefügt. Ein neuronales Netz, normalerweise ein U-Netz, lernt, das Rauschen in jedem Schritt zu bewerten und von der Rauschprobe zu entfernen. Um neuartige Bilder zu erstellen, beginnt man mit einem Beispiel aus einer reinen Geräuschverteilung, und das Rauschen wird sukzessive bewertet und anhand des gleichen U-Netzes entfernt, bis es zu einem (hoffentlich) realistischen Eingangsbild konvergiert.

Konditionierungsdaten, wie beispielsweise Einbettungen textlicher Vorgaben, werden im Trainingsprozess als Zusatzinformationen bereitgestellt. Zum Probenzeitpunkt steuern die dem Nutzer bereitgestellten Konditionierungsdaten den Rückdiffusionsprozess hin zu einem Bild, das für die Eingabe des Nutzers relevant ist.

Jedes Mal, wenn ein Diffusionsmodell zur Erzeugung eines Bildes erprobt wird, erzeugt es absichtlich ein unabhängiges Bild. Dies ermöglicht die Erzeugung einer tatsächlich unendlichen Anzahl von Bildern. Allerdings gibt es keine Basiswahrheit für die Validität des erzeugten Bildes. Die Qualität des entstandenen Bilds und seine Relevanz gegenüber der Vorgabe sind eher subjektiv.

Bei der Verwendung von Diffusionsmodellen zur Umwandlung von 2D-Referenzfotos in 3D-Modelle kann man sich 2D-Referenzbilder als Konditionierungsaufforderungen vorstellen und darauf hoffen, das 3D-Modell aus den entsprechenden 2D-Fotos zu gewinnen. Das Problem ist unter anderem, dass der Rückdiffusionsprozess bei der Annäherung schließlich ein anderes 3D-Modell generiert.

Allerdings hat Nextech3D.ai ein bahnbrechendes vorläufiges Patent angemeldet, das dieses Problem angeht, indem eine neue Variation diffuser Modelle vorgegeben wird, die wir Fixpunkt-Diffusion nennen und die in der Lage ist, zuverlässig 3D-Modelle aus 2D-Fotos zu erzeugen, wobei nur eine einzige Basiswahrheit den Konditionierungsdaten entspricht (d. h. 2D-Referenzbilder).
www.irw-press.at/prcom/images/messages/2023/69752/Nextech_2103213_DEPRcom.001.png

Bild oben: Ein Diffusionsmodell, das 4 Bilder aus der Vorgabe Ein Wissenschaftler reitet einen Elefanten auf dem Mond im Cartoon-Stil erstellt. Jedes Bild beginnt mit einer unabhängigen Probe von zufälligem Gaußschem Rauschen und endet mit der Erzeugung eines unabhängigen Bildes, das gegenüber der Eingabeaufforderung immer noch relevant ist.

Mit einer neuen Welle von generativen KI-Systemen tritt die Welt in eine Zeit des Generationenwechsels ein, in dem möglicherweise ganze Branchen transformiert werden. Das Unternehmen ist davon überzeugt, dass es aufgrund seiner Fortschritte mit Künstlicher Intelligenz ideal aufgestellt ist, um sich zum Anbieter der Wahl für die weltweite, 5,5 Billionen USD schwere E-Commerce-Branche zu entwickeln, während diese von 2D- auf 3D-Modelle umstellt – ein Bereich, der einen geschätzten Wert von 100 Milliarden USD hat.

Über Nextech3D.ai

(zuvor Nextech AR Solutions Corp oder das Unternehmen) (OTCQX: NEXCF) (CSE: NTAR) (FWB: EP2) ist ein diversifiziertes Augmented-Reality- und KI-Technologieunternehmen, das die eigene künstliche Intelligenz einsetzt, um 3D-Erlebnisse für das Metaversum zu schaffen.

Sein primäres Geschäft ist die Erstellung von fotorealistischen 3D-WebAR-Modellen für den wichtigsten E-Commerce Marktplatz (Amazon.com) und viele andere Online-Händler. Das Unternehmen entwickelt oder erwirbt Technologien, die es für revolutionär hält, und gliedert sie nach ihrer Kommerzialisierung als eigenständige Aktiengesellschaften aus, wobei es eine Aktiendividende an die Aktionäre ausschüttet, während es eine signifikante Beteiligung am börsennotierten Spin-out-Unternehmen behält.

Am 26. Oktober 2022 gliederte Nextech3D.ai seine räumliche Datenverarbeitungsplattform ARway als eigenständige Aktiengesellschaft aus. Nextech3D.ai behielt mit 13 Millionen Aktien oder einer Beteiligung von 50 Prozent eine Mehrheitsbeteiligung an ARway Corp. und schüttete 4 Millionen ARway-Aktien an die Aktionäre von Nextech AR aus.

ARway notiert zurzeit an der Canadian Securities Exchange (CSE: ARWY), in den USA an der (OTC: ARWYF) und an der Börse Frankfurt (FWB: E65). ARway revolutioniert den Markt für Wegeleitsysteme mit Augmented-Reality und einer räumlichen Datenverarbeitungsplattform ohne Code oder Beacon, die durch visuelles Marker-Tracking ermöglicht wird. Um mehr über ARway zu erfahren, besuchen Sie bitte www.arway.ai.

Am 14. Dezember 2022 gab Nextech sein zweites Spin-out von Toggle3D, einem KI-gesteuerten 3D-Designstudio bekannt, das mit Adobe konkurrieren soll. Toggle3D soll noch in der ersten Jahreshälfte 2023 an die Börse gehen.

Um mehr zu erfahren, folgen Sie uns bitte auf Twitter, YouTube, Instagram, LinkedIn und Facebook oder besuchen Sie unsere Website www.Nextechar.com.

Weitere Informationen erhalten Sie über:
IR-Kontakt
Lindsay Betts
investor.relations@Nextechar.com
+1 866-ARITIZE (274-8493) Durchwahl 7201

Nextech3D.ai
Evan Gappelberg
CEO und Director
+1 866-ARITIZE (274-8493)

Zukunftsgerichtete Aussagen

Die CSE hat diese Mitteilung nicht überprüft und übernimmt keine Verantwortung für die Angemessenheit oder Richtigkeit dieser Mitteilung.

Bestimmte hierin enthaltene Informationen können gemäß der kanadischen Wertpapiergesetzgebung zukunftsgerichtete Informationen darstellen. Im Allgemeinen sind zukunftsgerichtete Informationen an der Verwendung von zukunftsgerichteten Begriffen wie wird sein oder Abwandlungen solcher Wörter und Sätze oder an Aussagen zu erkennen, wonach bestimmte Handlungen, Ereignisse oder Ergebnisse eintreten werden. Zukunftsgerichtete Aussagen über den Abschluss der Transaktion unterliegen bekannten und unbekannten Risiken, Ungewissheiten und anderen Faktoren. Es kann nicht garantiert werden, dass sich solche Aussagen als zutreffend erweisen, da zukünftige Ereignisse erheblich von den in solchen Aussagen erwarteten abweichen können. Dementsprechend sollten sich die Leser nicht in unangemessener Weise auf zukunftsgerichtete Aussagen und zukunftsgerichtete Informationen verlassen. Nextech wird keine zukunftsgerichteten Aussagen oder zukunftsgerichteten Informationen aktualisieren, die hierin durch Verweis enthalten sind, es sei denn, dies ist nach den geltenden Wertpapiergesetzen erforderlich.

Die Ausgangssprache (in der Regel Englisch), in der der Originaltext veröffentlicht wird, ist die offizielle, autorisierte und rechtsgültige Version. Diese Übersetzung wird zur besseren Verständigung mitgeliefert. Die deutschsprachige Fassung kann gekürzt oder zusammengefasst sein. Es wird keine Verantwortung oder Haftung für den Inhalt, die Richtigkeit, die Angemessenheit oder die Genauigkeit dieser Übersetzung übernommen. Aus Sicht des Übersetzers stellt die Meldung keine Kauf- oder Verkaufsempfehlung dar! Bitte beachten Sie die englische Originalmeldung auf www.sedar.com oder auf der Unternehmenswebsite!

Verantwortlicher für diese Pressemitteilung:

Nextech AR Solutions Corp.
Evan Gappelberg
501 – 121 Richmond Street West
M5H 2K1 Toronto, ON
Kanada

email : evan@nextechar.com

Pressekontakt:

Nextech AR Solutions Corp.
Evan Gappelberg
501 – 121 Richmond Street West
M5H 2K1 Toronto, ON

email : evan@nextechar.com

PM-Ersteller
Author: PM-Ersteller

WERBUNG
WERBUNG
WERBUNG
WERBUNG
WERBUNG
WERBUNG
WERBUNG
WERBUNG
LoopsterPanel
WERBUNG
WERBUNG

Schreibe einen Kommentar

My Agile Privacy

Diese Website verwendet technische und Profilierungs-Cookies. 

Sie können die Cookies akzeptieren, ablehnen oder anpassen, indem Sie auf die gewünschten Schaltflächen klicken. 

Wenn Sie diese Mitteilung schließen, setzen Sie die Nutzung ohne Zustimmung fort. 

Warnung: Einige Funktionen dieser Seite können aufgrund Ihrer Datenschutzeinstellungen blockiert werden: