Εμφάνιση απλής εγγραφής

Application development with Microsoft Kinect Sensor.

Στοιχεία Dublin Core

dc.creatorΣυντυχάκης, Ευθύμιοςel
dc.creatorSyntychakis, Efthymiosen
dc.date.accessioned2016-03-15T15:17:53Z
dc.date.available2016-03-15T15:17:53Z
dc.date.issued2012-07-05T11:03:06Z
dc.identifier.urihttp://hdl.handle.net/20.500.12688/3387
dc.description.abstractΣε αυτήν την εργασία παρουσιάζεται μια πολύ-τροπικη φυσική διεπαφή χρήστη με όνομα MIDAS (Multimodal Interface Directed by Action Sentences). Το MIDAS χρησιμοποιεί κινήσεις, φωνητικές εντολές κι άλλους τρόπους ανθρώπινης επικοινωνία, εντοπίζοντάς τους με τεχνολογίες όπως αναγνώριση κίνησης του σώματος, φωνής, έκφρασης – κίνησης προσώπου, ερμηνεύοντας τους ως λέξεις Με τις λέξεις αυτές σχηματίζει προτάσεις με τις οποίες ο χρήστης μπορεί να διαχειριστεί τις τρέχουσες εφαρμογές του υπολογιστή. Η πολύ-τροπικότητα στις εισόδους επιτυγχάνεται με τη χρήση του Microsoft Kinect το οποίο παρέχει εικόνα χρώματος, χάρτη βάθους και ήχο. Το MIDAS βασίζεται σε ένα general container το οποίο τρέχει στο παρασκήνιο λειτουργώντας ως ενδιάμεσος μεταξύ της πολύ-τροπικής εισόδου και των εφαρμογών που τρέχουν σε ένα υπολογιστή.. Εξηγούμε την αρχιτεκτονική του συστήματός μας και παρουσιάζουμε παραδείγματα χρήσης του.el
dc.description.abstractIn this work we represent a multimodal natural user interface called MIDAS (Multimodal Interface Directed by Action Sentences). MIDAS uses body motion, voice commands and other modals of human communication, detecting them with technologies such as gesture, voice and facial expression recognition, interpreting them as words. Users can manipulate the running applications on the computer by constructing action sentences with the words. The device utilized for achieving multimodal input is the Microsoft Kinect which provides RGB, depth and sound input. MIDAS is based on a generic container which runs at the background and serves as an intermediate between multimodal input and active applications running on a computer. We describe the architecture of the system and its representative example using two PC applications.en
dc.languageel
dc.publisherΤ.Ε.Ι. Κρήτης, Τεχνολογικών Εφαρμογών (Σ.Τ.Εφ), Τμήμα Μηχανικών Πληροφορικής Τ.Ε.el
dc.publisherT.E.I. of Crete, School of Engineering (STEF), Department of Informatics Engineeringen
dc.rightsAttribution-ShareAlike 4.0 International (CC BY-SA 4.0)
dc.rights.urihttps://creativecommons.org/licenses/by-sa/4.0/
dc.titleΑνάπτυξη εφαρμογής με τη χρήση του Microsoft Kinect Sensor.el
dc.titleApplication development with Microsoft Kinect Sensor.en

Στοιχεία healMeta

heal.creatorNameΣυντυχάκης, Ευθύμιοςel
heal.creatorNameSyntychakis, Efthymiosen
heal.publicationDate2012-07-05T11:03:06Z
heal.identifier.primaryhttp://hdl.handle.net/20.500.12688/3387
heal.abstractΣε αυτήν την εργασία παρουσιάζεται μια πολύ-τροπικη φυσική διεπαφή χρήστη με όνομα MIDAS (Multimodal Interface Directed by Action Sentences). Το MIDAS χρησιμοποιεί κινήσεις, φωνητικές εντολές κι άλλους τρόπους ανθρώπινης επικοινωνία, εντοπίζοντάς τους με τεχνολογίες όπως αναγνώριση κίνησης του σώματος, φωνής, έκφρασης – κίνησης προσώπου, ερμηνεύοντας τους ως λέξεις Με τις λέξεις αυτές σχηματίζει προτάσεις με τις οποίες ο χρήστης μπορεί να διαχειριστεί τις τρέχουσες εφαρμογές του υπολογιστή. Η πολύ-τροπικότητα στις εισόδους επιτυγχάνεται με τη χρήση του Microsoft Kinect το οποίο παρέχει εικόνα χρώματος, χάρτη βάθους και ήχο. Το MIDAS βασίζεται σε ένα general container το οποίο τρέχει στο παρασκήνιο λειτουργώντας ως ενδιάμεσος μεταξύ της πολύ-τροπικής εισόδου και των εφαρμογών που τρέχουν σε ένα υπολογιστή.. Εξηγούμε την αρχιτεκτονική του συστήματός μας και παρουσιάζουμε παραδείγματα χρήσης του.el
heal.abstractIn this work we represent a multimodal natural user interface called MIDAS (Multimodal Interface Directed by Action Sentences). MIDAS uses body motion, voice commands and other modals of human communication, detecting them with technologies such as gesture, voice and facial expression recognition, interpreting them as words. Users can manipulate the running applications on the computer by constructing action sentences with the words. The device utilized for achieving multimodal input is the Microsoft Kinect which provides RGB, depth and sound input. MIDAS is based on a generic container which runs at the background and serves as an intermediate between multimodal input and active applications running on a computer. We describe the architecture of the system and its representative example using two PC applications.en
heal.languageel
heal.academicPublisherΤ.Ε.Ι. Κρήτης, Τεχνολογικών Εφαρμογών (Σ.Τ.Εφ), Τμήμα Μηχανικών Πληροφορικής Τ.Ε.el
heal.academicPublisherT.E.I. of Crete, School of Engineering (STEF), Department of Informatics Engineeringen
heal.titleΑνάπτυξη εφαρμογής με τη χρήση του Microsoft Kinect Sensor.el
heal.titleApplication development with Microsoft Kinect Sensor.en
heal.typebachelorThesis
heal.keywordMultimodal Interaction, Kinect, Multi-application, Action Sentences, MIDASen
heal.advisorNameΤριανταφυλλίδης, Γεώργιοςel
heal.advisorNameTriantafyllidis, Georgiosen
heal.academicPublisherIDteicrete
heal.fullTextAvailabilitytrue
tcd.distinguishedfalse
tcd.surveyfalse


Αρχεία σε αυτό το τεκμήριο

Thumbnail
Thumbnail

Αυτό το τεκμήριο εμφανίζεται στις ακόλουθες συλλογές

Εμφάνιση απλής εγγραφής

Attribution-ShareAlike 4.0 International (CC BY-SA 4.0)
Except where otherwise noted, this item's license is described as Attribution-ShareAlike 4.0 International (CC BY-SA 4.0)