Tak to nieje problem len Apple.
Pri ChatGPT ma irituje to, ze nevie povedat, ze nieco nevie a radsej si vymysli nieco.
Odpovědět3 0
Mohl bys být konkrétnější a napsat dotaz na který GPT neznala odpověď a místo toho aby přiznala, že to neví, si nějakou odpověď vymyslela?
Odpovědět0 1
Po pravdě řečeno se to stává VELMI často. Například namátkou jen včera - na dotaz na důchodový věk odpověděl Chat GPT špatně o dva roky a pak "poděkoval" za opravu. Při zadání části textu písně Rolling Stones určil špatně píseň i album a opět "poděkoval" za opravu. Když jsem se ptal na vlastnosti určitého druhu ryb, určil špatně velikost i průměrné dožití. Prostě si něco vymyslel. Je to prostě jen lepší textový procesor a s přesností dat si hlavu neláme. Příkladů by bylo nespočet, ale holt si je nezaznamenávám.
Odpovědět1 0
ChatGPT je určen především na koncepční věci, není to úplně vyhledávač (ačkoli nyní už dostává i vyhledávací funkce). Je to jak používat kleště na přibíjení hřebíků, jde to, ale jsou na to i lepší nástroje, přímo k tomu určené. Každopádně mně na důchodový věk odpověděl správně (67 let po roce 1988 a pár příkladů z jiných let), fungoval ve vyhledávacím režimu, takže přidal odkazy na zdroje a v těch to bylo stejně jako v ChatGPT. Každopádně opět je třeba zdůraznit to, že je to nástroj pro generování textu na základě koncepčních(!) zadání. Když ho používáte na něco, na co není primárně zaměřen, tak se nedivte, že to nefunguje ideálně.
Odpovědět1 0
jj, přesně, jen uvádím příklady, že může uvádět mylná fakta. Je skvělý na shrnutí, vypracování nějakého textu, který si stejně prověřím. Na důchod mi odpověděl špatně, i když jsem zadal datum narození, když jsem výsledek korigoval, už odpověděl správně. Když jsem zadal třeba práci na téma zdravotních objevů a jejich významu, vyjel mi parádní text, který jsem opravdu jen ověřil, když jsem si nebyl jistý. Takže ve výsledku velmi užitečný nástroj,
Odpovědět0 0