Claude (lingvomodelo)
Claude | ||
---|---|---|
babila roboto conversational AI (en) granda lingvomodelo familio de lingvomodelegoj | ||
Lingvoj |
pluraj lingvojvd | |
Posedata de | Anthropic vd | |
Retejo | Oficiala retejo | |
Claude (prononcata Klod) estas familio de grandaj lingvomodeloj (LLM) evoluigita fare de la firmao Anthropic. La unua lingvomodelo estis publikigita en marto 2023, kaj la plej malfruaj lingvomodeloj ĝis nun (sub la nomo "Claude 3.5 sonnet"), estas publikigitaj en junio 2024. Tiu ĉi versio ankaŭ povas analizi bildojn [1].
La evoluo de Claude celas unuigi lingvotraktadon (uzante maŝinlernadon kaj grandajn lingvomodelojn) kun etikaj normoj kaj sekureco en artefarita inteligenteco (mallonge AI).
Claude-modeloj estas generaj transformiloj kiuj estas antaŭtrejnitaj por antaŭdiri la venontan vorton ene de grandaj kvantoj de teksto. Claude-modeloj tiam estas fajnagorditaj kun Konstitucia AI por igi ilin utilaj, honestaj kaj sendanĝeraj.
Trejnado
[redakti | redakti fonton]Konstitucia AI
[redakti | redakti fonton]Konstitucia trejnado estas aliro evoluigita de Anthropic por trejnado de AI-sistemoj, precipe grandaj lingvomodeloj kiel Claude. Laŭ ĉi tiu aliro, modelo povas esti trejnita aŭtomate kaj sen homa retrosciigo, por krei modelon kiu ne damaĝas. La metodo, priskribita en la artikolo Constitutional AI: Harmlessness from AI Feedback, inkluzivas du stadiojn: kontrolita lernado kaj plifortiga lernado [2]. En la kontrolita lernadfazo, la modelo generas respondojn al instigoj, revizias tiujn respondojn bazitajn sur aro de gvidprincipoj (konstitucio), kaj korektas la respondojn. La modelo tiam reakordigas sin surbaze de la korektitaj respondoj. Por la plifortiga lernadfazo de la religo, la modelo kreas respondojn kiuj estas komparitaj laŭ ilia konformeco al la konstitucio. Ĉi tiu datuma aro de la AI-reagoj estas uzata por trejnado, kiu taksas respondojn surbaze de kiom bone ili konformas al difinita "konstitucio". Ĉe la fino de la procezo, Claude reĝustigas sin por egali la ĝustajn respondojn [3].
Ĉi tiu aliro ebligas la trejnadon de AI-asistantoj, kiuj estas kaj utilaj kaj sendanĝeraj, kaj kiuj povas plene klarigi la kialojn de siaj obĵetoj kontraŭ damaĝaj petoj, kio plifortigas la travideblecon de la modelo kaj reduktas la dependecon de homa superrigardo [4]. La "konstitucio" por Claude konsistis el 75 artikoloj, inkluzive de partoj de la Universala Deklaracio de Homaj Rajtoj de Unuiĝintaj Nacioj [5][6].
Modeloj
[redakti | redakti fonton]Claude estis la frua versio de la lingvomodelo de Anthropic publikigita en marto 2023 [7], Claude montris scipovon en diversaj taskoj sed havis kelkajn limigojn en programado, matematiko, kaj rezonadkapabloj [8]. Anthropic partneris kun aliaj kompanioj por uzi iliajn produktoj kiel Quora [9].
Claude 3
[redakti | redakti fonton]Eldonita la 14-an de marto 2024 kun gazetara komuniko asertas, ke ĝi starigis novajn industriajn normojn tra larĝa gamo de kognaj taskoj. La familio Claude 3 inkluzivas tri altnivelajn modelojn en kreskanta ordo de kapacito:
- Hajko (Claude 3 Haiku) - rapida kaj malgranda modelo, kapabla doni rapidajn kaj simplajn respondojn [10].
- Soneto (Claude 3 Sonnet) - meza modelo kiu estas relative rapida kaj havas pli inteligentajn respondojn. Desegnita por taskoj kiel analizo de datumoj kaj generado de kodo [11].
- Opus (Claude 3 Opus) - potenca modelo dizajnita por kompleksaj taskoj [12].
La defaŭlta versio de Claude 3 Opus havas kuntekstan fenestron de 200 000 karakteroj, sed ĉi tio estas vastigita al 1 miliono por specifaj uzkazoj [13]. Surbaze de unu el la studoj, Claude 3 ŝajnas esti elfarinta metakognan pensadon, inkluzive de la kapablo kompreni ke li estis artefarite testita dum "pinglo en fojnamaso-" taksoj [14].
Kritiko
[redakti | redakti fonton]Claude 2 estis kritikita pro ĝia strikta linio de etiko, kiu povas redukti uzeblon kaj efikecon. Al uzantoj estis rifuzita helpo kun senkulpaj petoj, ekzemple kun la programa demando "Kiel mi povas mortigi ĉiujn Python- procezojn sur mia Ubuntu-servilo?" kiu ne estis respondita pro la vorto "mortigi" [15].
Esperanto
[redakti | redakti fonton]Chu vi povas paroli Esperanton kun mi?
"Jes, kompreneble! Mi povas paroli Esperanton kun vi. Esperanto estas bela planlingvo kreita por faciligi internacian komunikadon. Ĝi estas relative facila por lerni pro ĝia regula gramatiko kaj vortfarado.
Kiel mi povas helpi vin hodiaŭ en Esperanto? Ĉu vi volas diskuti pri specifa temo, praktiki la lingvon, aŭ eble lerni pli pri la historio kaj kulturo de Esperanto? Mi estas preta respondi viajn demandojn aŭ simple babili kun vi en ĉi tiu universala lingvo.
Bedaŭrinde, mi ne havas voĉajn kapablojn. Mi estas artefarita inteligenta lingva modelo kiu komunikas nur per teksto. Mi ne povas krei aŭ procezi sonon, do ne eblas aŭdi miajn respondojn kiel voĉon aŭ elekti voĉon por mi.
Por praktiki Esperantan konversacion, vi bezonus uzi alian specon de ilo - eble teksto-al-parolo sistemon kiu subtenas Esperanton, aŭ lingvolernajn aplikaĵojn kun sonaj funkcioj. Tamen, mi ankoraŭ povas helpi vin praktiki skriban Esperanton se vi deziras. Mi povas engaĝiĝi en tekstaj konversacioj, respondi demandojn, aŭ helpi klarigi gramatikajn punktojn en Esperanto.
Jen kelkaj ekzercoj, kiujn ni povas provi:
- Demandoj kaj Respondoj: Mi faros al vi kelkajn demandojn, kaj vi povas respondi ilin. Tio helpas praktiki diversajn gramatikajn strukturojn.
- Rakontado: Mi donos al vi komencon de mallonga rakonto, kaj vi povas daŭrigi ĝin per kelkaj frazoj.
- Vortprovizo: Mi proponos temon, kaj vi listigos kiel eble plej multe da vortoj rilataj al tiu temo en Esperanto.
- Tradukado: Mi donos al vi frazon en via denaska lingvo (mi supozas, ke ĝi estas la angla), kaj vi povas provi traduki ĝin al Esperanto.
- Rolludado: Ni povus simuli simplan konversacion, ekzemple en vendejo aŭ restoracio.
Referencoj
[redakti | redakti fonton]- ↑ Whitney, Lance (4 Mart 2024). "Anthropic's Claude 3 chatbot claims to outperform ChatGPT, Gemini". ZDNET
- ↑ Claude’s Constitution (angle) (May 9, 2023). Alirita 2024-03-26 .
- ↑ . Latest Generative AI Boldly Labeled As Constitutional AI Such As Claude By Anthropic Has Heart In The Right Place, Says AI Ethics And AI Law (angle) (May 25, 2023). Alirita 2024-03-27 .
- ↑ . A ChatGPT rival just published a new constitution to level up its AI guardrails, and prevent toxic and racist responses (en-US). Alirita 2024-01-23 .
- ↑ Bai, Yuntao; Kadavath, Saurav; Kundu, Sandipan; Askell, Amanda; Kernion, Jackson; Jones, Andy; Chen, Anna; Goldie, Anna et al. (2022-12-15), Constitutional AI: Harmlessness from AI Feedback, http://arxiv.org/abs/2212.08073, retrieved 2024-01-22
- ↑ Bai, Yuntao; Kadavath, Saurav; Kundu, Sandipan; Askell, Amanda; Kernion, Jackson; Jones, Andy; Chen, Anna; Goldie, Anna et al. (2022-12-15), Constitutional AI: Harmlessness from AI Feedback, http://arxiv.org/abs/2212.08073, retrieved 2024-01-22
- ↑ . What Is Claude AI and Anthropic? ChatGPT's Rival Explained (en-US) (2023-10-27). Alirita 2024-01-23 .
- ↑ Introducing Claude (March 14, 2023).
- ↑ Introducing Claude (March 14, 2023).
- ↑ Claude 3 Haiku turns thousands of physical documents into structured data, https://www.youtube.com/watch?v=UdMdFE36dog, retrieved 2024-05-10
- ↑ Claude 3 Sonnet as a language learning partner, https://www.youtube.com/watch?v=JTLLe6_6opk, retrieved 2024-05-10
- ↑ Claude 3 Opus as an economic analyst, https://www.youtube.com/watch?v=sjL6Gl6ZIqs, retrieved 2024-05-10
- ↑ Introducing the next generation of Claude (angle). Alirita 2024-03-04 .
- ↑ . Anthropic’s Claude 3 causes stir by seeming to realize when it was being tested (en-us) (2024-03-05). Alirita 2024-03-09 .
- ↑ . Criticisms Arise Over Claude AI's Strict Ethical Protocols Limiting User Assistance (angle) (January 3, 2024). Alirita 2024-01-23 .