OpenAI avduker GPT-4 AI-modell som forstår tekst og bilder
Miscellanea / / April 03, 2023
Og dette handler ikke bare om å gjenkjenne grafiske objekter, men også om å forstå handlinger og hendelser i bilder.
OpenAI-selskap, chatbot-utvikler ChatGPT, introduserte en kraftig ny kunstig intelligens-modell GPT-4. I motsetning til den forrige, GPT-3.5, er den i stand til å forstå ikke bare tekst, men også bilder.
AI vil kunne fortelle deg hvordan du bruker det den ser på bildet. Som et eksempel nevnte utviklerne skudd med ballonger og en boksehanske.
Et enda tydeligere eksempel er et øyeblikksbilde av et åpent kjøleskap. GPT-4 vil snakke om innholdet og tilby oppskrifter fra de tilgjengelige produktene. Denne funksjonen kan være nyttig for synshemmede, bemerket utviklerne.
I OpenAI kalt GPT-4 er den mest perfekte og kreative modellen. Det lar deg fortsatt analysere tekster og strukturere informasjon i henhold til brukerforespørsler, men det gjør det mer "meningsfullt". I ulike profesjonelle og akademiske tester er AI nå i stand til å få høyere score.
I vanlig samtale kan forskjellen mellom GPT-3.5 og GPT-4 være subtil. Men forskjellene vises når kompleksiteten til oppgaven når en tilstrekkelig terskel - GPT-4 er mer pålitelig, kreativ og i stand til å behandle mye finere instruksjoner enn GPT-3.5, la til utviklere.
AI-skapere bekreftet også det nylig sendt inn Microsofts søkemotor med chatbot fungerer på GPT-4. I tillegg er denne modellen allerede brukt i produktene til Stripe, Duolingo, Morgan Stanley og A Khan Academy. Sistnevnte bruker kunstig intelligens for å lage en slags automatisert veileder.
GPT-4 er allerede tilgjengelig for OpenAI-brukere med et ChatGPT Plus-abonnement. Andre brukere kan registrere seg hos liste venter på API-tilgang.
Les også🧐
- Hvordan bruke GPTZero, et tekstsøkeverktøy laget av ChatGPT
- Hvor kan du legge inn ChatGPT og hvorfor: 5 alternativer
- 8 beste nevrale nettverk for å tegne online