Featured image of post Komentarz: GPT-4 OpenAI ma pewne ograniczenia, które są poprawne – i niektóre, które nie są w stanie określić.

Komentarz: GPT-4 OpenAI ma pewne ograniczenia, które są poprawne – i niektóre, które nie są w stanie określić.

Literatura redaktorska: Cztery miesiące po wydaniu chatbota ChatGPT, OpenAI zaprezentowało swoją najnowszą technologię wywiadowczą GPT-4. Oren Etzioni, były dyrektor generalny Instytutu Allena.. czytać

image

BigStock Image (ang.). Literatura redaktorska: Cztery miesiące po wydaniu chatbota ChatGPT, OpenAI zaprezentowało swoją najnowszą technologię sztucznej inteligencji. PT-4 Wtorek. Oren Etzioni, właśc. Był dyrektorem generalnym Allen Institute for AI. , m, m, m, m. Dyrektor techniczny AI2 Incubator , m, m, m, m. i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i oraz i i i i i i i i i i i i i i i i i i i i i i i oraz i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i Profesor emeritus na Uniwersytecie w Waszyngtonie oferuje swoje myśli.

Przybył GPT-4.

Jest znacznie bardziej wszechstronny i potężny niż ChatGPT, który już zagarnął świat. GPT-4 może diagnozować pacjentów, pisać oprogramowanie, odtwarzać szachy, artykuły autorskie i znacznie więcej.

W ostatnim miesiącu prezes OpenAI Sam Altman. tweetować Nowa wersja prawa Moore’a, która mogła rozpocząć się niedługo: ilość inteligencji we wszechświecie podwoiła się co 18 miesięcy.”

W ciągu następnych kilku lat widzimy GPT-4 i jego uderzenie się z nami. gospodarka informacyjna , m, m, m, m. praca , m, m, m, m. edukacja , m, m, m, m. polityczny Nasze zrozumienie tego, co oznacza inteligentny i kreatywny. Pozwoliło to na model GPT jako model. JPEG w internecie Powoduje to zarówno jego obecne możliwości, jak i przyszłość.

Ważne jest jednak, że technologia ma ograniczenia związane z DNA rodzinnego.”

GPT-4 ma pewne problemy powierzchniowe.

  • Jest ono ograniczone szerokim zestawem „strażników”, które starają się zapobiec ofensywie lub od ściany.
  • Nie uaktualnia jego wiedzy w czasie rzeczywistym.
  • Przywódca języków innego niż angielski.
  • Nie analizuje audio ani wideo.
  • Unika to z błędów arytmetycznych, że kalkulator może uniknąć. Jednak żadne z tych problemów nie są związane z podejściem. Dla tych, którzy umacniają się na nich, mówię: „Nie ugryźj mojego palca, patrząc na to, gdzie widzę”. Wszystkie te problemy zostały przezwyciężone w GPT-5 lub w kolejnej wersji z OpenAI.

Bardziej wymagają tego, że GPT-4 nie jest zaufany. Podobnie jak ChatGPT, „wspaniały”, czyniąc fakty, a nawet zwracając te fakty do źródeł. Worse, jest tak z zaufaniem do stałego kłamstwa.

Podobnie jak ChatGPT, może być niespójny w jego odpowiedzi, gdy za pomocą wielu pytań na tę samą kwestię. To się dzieje, ponieważ nie ma zestawu podstawowych wierzeń i wartości – zamiast tego odpowiada na dane ludzkie oparte na niespotykanej kombinacji danych treningowych i jej wewnętrznego, matematycznie sformułowanego celu.

Z tych powodów wynika również z efektów ubocznych – można byłoby zaufać jego odpowiedzi bez ostrożnej weryfikacji. Programiści, którzy korzystają z narzędzia GPT, nazwali go programistami ludzkimi. GitHub CoPilot Aby wytworzyć fragmenty kodu oprogramowania, ostrożnie ocenić i przetestować oprogramowanie przed wprowadzeniem go do swoich napisanych programów. Mimo to, każda generacja technologii sprawia, że błędy są mniej błędy, a możemy oczekiwać, że ten trend będzie kontynuowany.

Z powodu tego szybkiego postępu i bezprecedensowego sukcesu, jest istotne dla podkreślenia, że GPT-4 i pełna gratu podobnych technologii AI (czasami nazywanych „modelami ufundowanymi” lub „generacyjnie sztuczną inteligencją”) mają fundamentalne ograniczenia, które nie będą przezwyciężone w przyszłości.

W przeciwieństwie do ludzi modele GPT nie posiadają ciała. Modele opierają się na informacjach z drugiej strony, które mogą być zniekształcone lub niekompletne. W przeciwieństwie do ludzi modele GPT mogą symulować empatię, ale nie czują jej. Podczas symulacji empatii używa się (myśl o nastolatku, który potrzebuje ramiennika do płacenia na 2 am. wiejskim Kansas), nie jest to rzeczywista rzecz.

Podczas gdy modele GPT mogą wyglądać nieskończenie kreatywne i zaskakujące w ich odpowiedzi, nie mogą one zaprojektować złożonych artefaktów. Być może najłatwiejszym sposobem na to, jest to pytanie: Co komponenty GPT-4 zostały zaprojektowane przez model rozrodczy? State-of-the-art in AI uczy nam, że GPT-4 został zbudowany przez skalowanie i tinkerowanie z ludzkimi modelami i metodami, które obejmują modele Google. BERT i sztuczna inteligencja ELMo . Steven Wolfram, autor książki Stevena Wolframa, przedstawił go w przeglądzie technologii. tutaj .

Niezależnie od szczegółów jest jasne, że technologia jest latami świetlnymi od możliwości samodzielnego projektowania. Co więcej, w celu zaprojektowania czatu, musisz zacząć tworzyć obiekty, dane szkoleniowe, podejście techniczne, szczególne podgatunki i inne. Są to miejsca, w których należy eksperymentować i iteracja.

Musisz również zdobyć odpowiednie zasoby, zatrudniać odpowiednich ludzi i więcej. Oczywiście wszystko to zostało wykonane przez utalentowanych ludzi w OpenAI. Wspieram się. MIT Technology Review (ang.). Pomyślnie sformułowanie i wykonywaniu takich starań jest niezwykle użyteczne.

Najważniejszymi modelami GPT są narzędzia, które działają naszym behestem. Mimo że są one niezwykle potężne, nie są one zbyt potężne. autonomiczny . Odpowiadają się naszym rozkazom.

Powoduje to analogię do samochodowych samochodów. W ciągu następnych lat samochodowe samochody stają się bardziej wszechstronne i coraz bardziej bezpieczne, ale samochody nie ustalają miejsca, w którym kierują się - to decyzja należy do człowieka. Podobnie jest w celu podjęcia decyzji o wykorzystaniu modeli GPT - do edyfikacji lub błędu.

Wielki Pablo Picasso powiedział: „Computers są bezużyteczne. Dają odpowiedzi.”

Podczas gdy modele GPT są daleko od niepotrzebnych, nadal są one sformułowane na podstawie podstawowych pytań i oceny odpowiedzi. Nie zmieniło się to wkrótce.