Tecnologia.

Il futuro dell’Intelligenza Artificiale è qui.

NLP Core.

AI di ispirazione quantistica con una base di conoscenza condivisa.

eeve è costruita sulla base di una rete neurale artificiale, cioè un modello matematico composto da “neuroni” artificiali di ispirazione quantistica, i qubit, che sono in grado di migliorare automaticamente le loro prestazioni attraverso un apprendimento supervisionato e non. La base di conoscenza condivisa è composta da una rete di dati estremamente innovativa composta da grafi. All’interno di questa struttura, i nodi sono i concetti semanticamente connessi con le relazioni, che diventano sempre più sofisticate grazie alle interazioni con gli utenti.

NLP Core.

AI di ispirazione quantistica con una base di conoscenza condivisa.

eeve è costruita sulla base di una rete neurale artificiale, cioè un modello matematico composto da “neuroni” artificiali di ispirazione quantistica, i qubit, che sono in grado di migliorare automaticamente le loro prestazioni attraverso un apprendimento supervisionato e non. La base di conoscenza condivisa è composta da una rete di dati estremamente innovativa composta da grafi. All’interno di questa struttura, i nodi sono i concetti semanticamente connessi con le relazioni, che diventano sempre più sofisticate grazie alle interazioni con gli utenti.

Esistono diverse tipologie di nodi.

Esistono diverse tipologie di nodi.

Lemma.

Contiene un’informazione nel suo stadio più semplice (es. persona, gatto, veicolo).

Concetto.

Combinazione di più lemmi formano un nodo più complesso (es. animale protetto).

Inferenza.

È la tipologia di nodo più importante, generalmente un punto di arrivo, costituita dalla combinazione di nodi di tipo lemma o concetto e permette di effettuare ragionamenti deduttivi.

eeve è in grado di combinare strutture basate su dati con strutture basate su algoritmi, portando a chiari vantaggi rispetto alle soluzioni standard.

eeve è in grado di combinare strutture basate su dati con strutture basate su algoritmi, portando a chiari vantaggi rispetto alle soluzioni standard.

Tempistiche di addestramento più veloci.

Lavorando per concetti, non sono necessarie ingenti quantità di dati (esempi massivi) e il legame tra concetti si propaga con un unico addestramento.

Tempistiche di addestramento più veloci.

Lavorando per concetti, non sono necessarie ingenti quantità di dati (esempi massivi) e il legame tra concetti si propaga con un unico addestramento.

Migliori performance conversazionali.

Sono la conseguenza dell’utilizzo di diverse basi di conoscenza condivise costituite da milioni di nodi e relazioni, che quotidianamente vengono aggiornate e arricchite, grazie alle interazioni degli utenti.

Migliori performance conversazionali.

Sono la conseguenza dell’utilizzo di diverse basi di conoscenza condivise costituite da milioni di nodi e relazioni, che quotidianamente vengono aggiornate e arricchite, grazie alle interazioni degli utenti.

Maggiore precisione.

La rete neurale è dinamica nella sua struttura, in quanto nodi, concetti ed inferenze possono essere aggiunti o rimossi senza compromettere il modello matematico e necessitare di un nuovo addestramento.

Maggiore precisione.

La rete neurale è dinamica nella sua struttura, in quanto nodi, concetti ed inferenze possono essere aggiunti o rimossi senza compromettere il modello matematico e necessitare di un nuovo addestramento.

Costi scalabili.

Grazie all’ingegnerizzazione dei processi, che determina una maggior precisione in termini di qualità di output, dinamicità del modello e risparmio di tempo in addestramento si traduce in un notevole abbattimento dei costi in favore di una netta scalabilità.

Costi scalabili.

Grazie all’ingegnerizzazione dei processi, che determina una maggior precisione in termini di qualità di output, dinamicità del modello e risparmio di tempo in addestramento si traduce in un notevole abbattimento dei costi in favore di una netta scalabilità.

Risorse hardware limitate.

La tecnologia elaborata da eeve, sfruttando le proprietà dei grafi, consente di utilizzare esclusivamente le porzioni di rete neurale interessate di volta in volta nelle singole elaborazioni, riducendo drasticamente la quantità di operazioni necessarie.

Risorse hardware limitate.

La tecnologia elaborata da eeve, sfruttando le proprietà dei grafi, consente di utilizzare esclusivamente le porzioni di rete neurale interessate di volta in volta nelle singole elaborazioni, riducendo drasticamente la quantità di operazioni necessarie.

Vision Core

AI che genera Avatar fotorealistici.

Grazie all’applicazione degli algoritmi di Deep Learning di eeve, siamo in grado di superare la principale criticità nell’ambito della generazione di Avatar, ovvero la notevole potenza di calcolo richiesta per l’elaborazione dei modelli matematici necessari. L’innovativa tecnologia integrata di eeve consente, partendo da un testo, di ottenere l’animazione del volto di un Avatar fotorealistico con relativa voce associata, il tutto garantendo estremo realismo, sia nella qualità dei fotogrammi generati sia nella qualità della voce sintetizzata, e con l’utilizzo di risorse di calcolo decisamente più contenute. 

Come funziona la tecnologia Vision Core.

Il testo scritto in input viene convertito in audio (.wav) tramite l’utilizzo di algoritmi avanzati di text-to-speech.

Il testo scritto in input viene convertito in audio (.wav) tramite l’utilizzo di algoritmi avanzati di text-to-speech.

L’audio ottenuto viene analizzato e scomposto in piccoli segmenti (“chunks”), a cui vengono applicati sofisticati algoritmi di analisi del suono per estrarne il timbro di voce, le frequenze dei suoni e dei fonemi e molto altro.

L’audio ottenuto viene analizzato e scomposto in piccoli segmenti (“chunks”), a cui vengono applicati sofisticati algoritmi di analisi del suono per estrarne il timbro di voce, le frequenze dei suoni e dei fonemi e molto altro.

Ogni filmato viene scomposto in chunks da 40 millisecondi, che equivalgono a un fotogramma. Grazie a un’innovativa evoluzione tecnica elaborata dal team R&D, per ogni frame vengono elaborati diversi chunks, in modo che per ogni fotogramma le informazioni sulla voce siano in grado di prevedere come il suono si svilupperà nei fotogrammi successivi, permettendo così di migliorare notevolmente l’animazione generale del volto e la sincronia tra il movimento labiale e la voce.

Ogni filmato viene scomposto in chunks da 40 millisecondi, che equivalgono a un fotogramma. Grazie a un’innovativa evoluzione tecnica elaborata dal team R&D, per ogni frame vengono elaborati diversi chunks, in modo che per ogni fotogramma le informazioni sulla voce siano in grado di prevedere come il suono si svilupperà nei fotogrammi successivi, permettendo così di migliorare notevolmente l’animazione generale del volto e la sincronia tra il movimento labiale e la voce.

Estratte le informazioni sull’audio, queste vengono date in addestramento al modello matematico di eeve.ai per alla generazione dei volti, che prende in input un chunk audio con le relative informazioni e genera il fotogramma video associato.

Estratte le informazioni sull’audio, queste vengono date in addestramento al modello matematico di eeve.ai per alla generazione dei volti, che prende in input un chunk audio con le relative informazioni e genera il fotogramma video associato.