GPT-4o: Η νέα έκδοση του ChatGPT θα μιλάει

Κατηγορία: ΤΕΧΝΟΛΟΓΙΑ
Views: 81

Η OpenAI παρουσίασε τη Δευτέρα, ένα νέο μοντέλο τεχνητής νοημοσύνης το GPT-4o χαρακτηρίζοντάς το ως το ταχύτερο και ισχυρότερο μοντέλο AI που έχει παρουσιάσει μέχρι στιγμής. Μέχρι τώρα, το πιο εξελιγμένο LLM της OpenAI ήταν το GPT-4, το οποίο ήταν διαθέσιμο μόνο σε χρήστες με πληρωμή. Το GPT-4o θα διατίθεται δωρεάν.

Το GPT-4o θεωρείται ως ένα επαναστατικό μοντέλο τεχνητής νοημοσύνης, το οποίο έχει αναπτυχθεί για να βελτιώσει τις αλληλεπιδράσεις ανθρώπου-υπολογιστή. Επιτρέπει στους χρήστες να εισάγουν οποιονδήποτε συνδυασμό κειμένου, ήχου και εικόνας και να λαμβάνουν απαντήσεις στις ίδιες μορφές. Αυτό καθιστά το GPT-4o ένα πολυτροπικό μοντέλο τεχνητής νοημοσύνης – ένα σημαντικό άλμα σε σχέση με τα προηγούμενα μοντέλα.

Όπως ανέφερε η Muri Murati ,η επικεφαλής τεχνολογίας της OpenAI, το GPT-4o παρέχει νοημοσύνη «επιπέδου GPT-4», ωστόσο βελτιώνει τις δυνατότητες του GPT-4 σε κείμενο, όραση καθώς και σε ήχο.

«Προχωράμε σε κάτι απίστευτα σημαντικό, διότι έτσι εξετάζουμε το μέλλον της αλληλεπίδρασης μεταξύ ημών και των μηχανών».

Σημειώνεται πως το GPT-4 Turbo -το προηγούμενο κορυφαίο μοντέλο του OpenAI, μια βελτιωμένη έκδοση του GPT-4- λειτουργούσε σε συνδυασμό εικόνων και κειμένου και μπορούσε να αναλύσει εικόνες και κείμενο για να ολοκληρώσει εργασίες όπως η εξαγωγή κειμένου από εικόνες ή ακόμη και η περιγραφή του περιεχομένου αυτών των εικόνων. Με το GPT-4o «στο παιχνίδι» μπαίνει και η ομιλία.

Το ChatGPT προσφέρει εδώ και καιρό μια φωνητική λειτουργία που μεταγράφει κείμενο από το ChatGPT χρησιμοποιώντας ένα μοντέλο μετατροπής κειμένου σε ομιλία. Αλλά το GPT-4o το ενισχύει αυτό, επιτρέποντας στους χρήστες να αλληλεπιδρούν με το ChatGPT περισσότερο, ουσιαστικά παρεμβαίνοντας.

Πλέον οι χρήστες μπορούν να κάνουν μια ερώτηση στο ChatGPT -κάτι που υποστηρίζεται από το GPT-4o- και να διακόπτουν το ChatGPT ενώ αυτό απαντά. Το μοντέλο θα ανταποκρίνεται «σε πραγματικό χρόνο», σύμφωνα με την OpenAI, και μπορεί ακόμη και να αντιληφθεί το συναίσθημα στη φωνή του χρήστη και να παράγει αντίστοιχα φωνή σε «μια σειρά διαφορετικών στυλ συναισθηματικών».

Πηγή: ertnews.gr

Μπορεί να σου αρέσει επίσης…

Επόμενο άρθρο
Εξεταστικά Κέντρα Πανελλαδικών Εξετάσεων Ειδικών Μαθημάτων, έτους 2024.
Προηγούμενο άρθρο
Πρόγραμμα Παιδικών Εξοχών και κατασκηνώσεων: Αυξήθηκαν στις 13.595 ωφελούμενοι – Διπλασιάστηκαν οι θέσεις για παιδιά και ενήλικες με αναπηρία – Εγγραφές έως τις 14 Ιουνίου
Μενού