Paralela komputado

El Vikipedio, la libera enciklopedio

Paralela komputado estas komputadformo en kiu multaj komputadtaskoj estas plenumataj samtempe,[1] funkciantaj laŭ la principo ke grandaj problemoj povas ofte esti dividataj en malpli grandajn, kiuj tiam estas aparte solvataj ("paralele"). Estas pluraj formoj de paralela komputado: bit-nivela, instrukci-nivela, datuma, kaj taska paraleleco. Paraleleco estas uzita de multaj jaroj, aparte en altkapabla komputado, sed interesiĝo pri ĝi lastatempe kreskis pro la fizikaj trudoj malpermesantaj frekvencan supergradigon.[2] Ĉar energikonsumo (kaj sekve varmgenerado) per komputiloj fariĝis vera problemo en lastatempaj jaroj,[3] paralela komputado fariĝis la superrega paradigmo en komputila arkitekturo, ĉefe en formo de multkernaj procesoroj.[4]

Paralelaj komputiloj povas esti pli-malpli klasifikitaj laŭ la nivelo de paraleleco proponata de la aparataro - kun multkernaj kaj multprocesoraj komputiloj havantaj multajn prilaborajn elementojn en unuopa maŝino, kiam komputilgrapoloj, amase paralele prilaboraj sistemoj, kaj kradoj uzas multajn komputilojn por la sama tasko. Specialigitaj paralelaj komputilaj arkitekturoj estas kelkfoje uzataj apud tradiciaj procesoroj, por akceli apartajn taskojn.

Programoj por paralelaj komputiloj estas multe pli malfacile skribeblaj ol sinsekvaj,[5] ĉar paraleleco enkondukas plurajn novajn klasojn de eblaj programcimoj, el kiuj konkurkondiĉoj estas la plej komunaj. Komunikado kaj sinkronigo inter la diversaj subtaskoj estas tipe unu el la plej gravaj obstakloj por atingi bonan paralelan programplenumon.

La plirapidigo de programo rezultanta de paraleligo estas observata laŭ la leĝo de Amdahl.

Referencoj[redakti | redakti fonton]

  1. Almasi, G.S. and A. Gottlieb (1989). Highly Parallel Computing. Benjamin-Cummings publishers, Redwood City, CA.
  2. S.V. Adve et al. (November 2008). "Parallel Computing Research at Illinois: The UPCRC Agenda" Arkivigite je 2008-12-09 per la retarkivo Wayback Machine (PDF). Parallel@Illinois, University of Illinois at Urbana-Champaign. "La ĉefaj teknikoj por profitoj en kapabloj - kreskigita horloĝfrekvenco kaj pli inteligentaj sed kreske kompleksaj arkitekturoj - estas nun frapantaj la nomatan potencmuron. La komputilindustrio akceptis ke estontaj kapablokreskoj devus plejmulte veni de kresko de la nombro da procesoroj sur plato, ol de plirapidigo de unuopa procesoro."
  3. Asanovic et al. Old [tradicia saĝo]: Energio estas senpaga, sed transistoroj estas multekostaj. Nova saĝo estas ke energio estas multekosta, sed transistoroj estas "senpagaj".
  4. Asanovic, Krste et al. (December 18, 2006). "The Landscape of Parallel Computing Research: A View from Berkeley" (PDF). University of California, Berkeley. Technical Report No. UCB/EECS-2006-183. "Iama [tradicia saĝo]: Kreskigi horloĝfrekvencon estas la unua metodo por plibonigi procesorkapablojn. Nova [tradicia saĝo]: Kreskigi paralelecon estas la unua metodo por plibonigi procesorkapablojn ... Eĉ parolantoj de Intel, kompanio kutime asociita al la pozicio 'plialta horloĝrapido estas pli bona", avertis ke la tradiciaj manieroj por maksimumigi kapablojn per maksimumigo de horloĝrapido atingis siajn limojn."
  5. Patterson, David A. and John L. Hennessy (1998). Computer Organization and Design, Second Edition, Morgan Kaufmann Publishers, p. 715. ISBN 1-55860-428-6.

Literaturo[redakti | redakti fonton]

  • C. Rodríguez, M. Villagra and B. Barán, Ŝablono:Doi-inline, Bionetics2007, pp. 66–69, 2007.

Vidu ankaŭ[redakti | redakti fonton]

Eksteraj ligiloj[redakti | redakti fonton]