علوم اعصاب شناختی؛ زبان؛ مدلهای عصبی تولید گفتار؛ تکامل زبان

دعای مطالعه [ نمایش ]
بِسْمِ الله الرَّحْمنِ الرَّحیمِ
اَللّهُمَّ اَخْرِجْنى مِنْ ظُلُماتِ الْوَهْمِ
خدایا مرا بیرون آور از تاریکىهاى وهم،
وَ اَکْرِمْنى بِنُورِ الْفَهْمِ
و به نور فهم گرامى ام بدار،
اَللّهُمَّ افْتَحْ عَلَیْنا اَبْوابَ رَحْمَتِکَ
خدایا درهاى رحمتت را به روى ما بگشا،
وَانْشُرْ عَلَیْنا خَزائِنَ عُلُومِکَ بِرَحْمَتِکَ یا اَرْحَمَ الرّاحِمینَ
و خزانههاى علومت را بر ما باز کن به امید رحمتت اى مهربانترین مهربانان.
۱۱.۶ Neural Models of Speech Production
۱۱.۶ مدلهای عصبی تولید گفتار
So far, we have focused mainly on language comprehension; we now turn our attention to language production. A seemingly trivial but nonetheless important difference between comprehension and production is our starting point. Whereas language comprehension starts with spoken or written input that has to be transformed into a concept, language production starts with a concept for which we have to find the appropriate words.
تا کنون، ما عمدتاً بر درک زبان تمرکز کردهایم. اکنون توجه خود را به تولید زبان معطوف کرده ایم. یک تفاوت به ظاهر پیش پا افتاده اما با این وجود مهم بین درک و تولید نقطه شروع ما است. در حالی که درک زبان با ورودی گفتاری یا نوشتاری شروع میشود که باید به یک مفهوم تبدیل شود، تولید زبان با مفهومیشروع میشود که باید کلمات مناسب را برای آن پیدا کنیم.
Speech production has traditionally been studied at two different levels of analysis. Motor control scientists, who are interested in kinematic forces, movement trajectories, and feedback control of orofacial muscles, tend to focus on lower-level articulatory control processes, whereas psycholinguists work at a more abstract level of phonemes, morphemes, and phrases. Not until recently have the two approaches begun to be integrated to form a neuroanatomically grounded model of speech production with hierarchical state feedback controls (Hickok, 2012).
تولید گفتار به طور سنتی در دو سطح مختلف تحلیل مورد مطالعه قرار گرفته است. دانشمندان کنترل حرکتی که به نیروهای حرکتی، مسیر حرکت و کنترل بازخورد عضلات دهانی علاقه مند هستند، تمایل دارند بر فرآیندهای کنترل مفصلی سطح پایین تمرکز کنند، در حالی که روانشناسان در سطح انتزاعی تر از واجها، مورفمها و عبارات کار میکنند. تا همین اواخر، این دو رویکرد برای تشکیل یک مدل مبتنی بر عصب آناتومیکی از تولید گفتار با کنترلهای بازخورد وضعیت سلسله مراتبی ادغام شدند (هیکوک، ۲۰۱۲).
Motor Control and Language Production
کنترل موتور و تولید زبان
In Chapter 8 we learned that motor control involves creating internal forward models, which enable the motor circuit to make predictions about the position and trajectory of a movement and its sensory consequences, and sensory feedback, which measures the actual sensory consequences of an action. Internal forward models provide online control of movement, as the effects of a movement command can be assessed and possibly adjusted on the fly before sensory feedback is given. Meanwhile, sensory feedback has three functions. It enables the circuit to learn the relationship between a motor command and the sensory result; if persistent mismatches occur between the predicted and measured states, it enables updating of the internal model; and it enables the detection of and correction for sudden perturbations.
در فصل ۸ آموختیم که کنترل موتور شامل ایجاد مدلهای رو به جلو داخلی است که مدار موتور را قادر میسازد تا در مورد موقعیت و مسیر حرکت و پیامدهای حسی آن پیشبینی کند و بازخورد حسی که پیامدهای حسی واقعی یک عمل را اندازهگیری میکند. مدلهای رو به جلو داخلی، کنترل آنلاین حرکت را فراهم میکنند، زیرا اثرات یک فرمان حرکتی را میتوان ارزیابی کرد و احتمالاً قبل از ارائه بازخورد حسی، آن را تنظیم کرد. در این میان بازخورد حسی سه کارکرد دارد. مدار را قادر میسازد تا رابطه بین فرمان موتور و نتیجه حسی را بیاموزد. اگر عدم تطابق مداوم بین حالتهای پیش بینی شده و اندازه گیری شده رخ دهد، به روز رسانی مدل داخلی را امکان پذیر میکند. و تشخیص و تصحیح اغتشاشات ناگهانی را امکان پذیر میکند.
Feedback control has been documented in the production of speech. Researchers have altered sensory feedback and found that people adjust their speech to correct for sensory feedback “errors” (Houde & Jordan, 1998). To identify the neural circuit underlying auditory feedback control of speech movements, Jason Tourville and his colleagues (2008) performed an experiment that combined fMRI with computational modeling. They measured the neural responses while participants spoke single-syllable words under two conditions: normal auditory feedback and auditory feedback where the frequency of their speech was unexpectedly shifted. The participants responded by shifting their vocal output in a direction opposite to the shift. Acoustic measurements showed compensation to the shift within approximately 135 ms of onset.
کنترل بازخورد در تولید گفتار مستند شده است. محققان بازخورد حسی را تغییر دادند و دریافتند که افراد گفتار خود را برای تصحیح “خطاهای” بازخورد حسی تنظیم میکنند (Houde & Jordan, 1998). برای شناسایی مدار عصبی زیربنایی کنترل بازخورد شنیداری حرکات گفتار، جیسون تورویل و همکارانش (۲۰۰۸) آزمایشی را انجام دادند که fMRI را با مدلسازی محاسباتی ترکیب کرد. آنها پاسخهای عصبی را اندازهگیری کردند در حالی که شرکتکنندگان کلمات تک هجا را تحت دو شرایط صحبت میکردند: بازخورد شنیداری عادی و بازخورد شنیداری که در آن فرکانس گفتار آنها به طور غیرمنتظرهای تغییر میکرد. شرکت کنندگان با تغییر خروجی صدای خود در جهت مخالف تغییر پاسخ دادند. اندازهگیریهای آکوستیک در حدود ۱۳۵ میلیثانیه از شروع، تغییر را جبران کرد.
During shifted feedback, increased activity was seen in bilateral superior temporal cortex, indicative of neurons coding mismatches between expected and actual auditory signals. Increased activity was also seen in the right prefrontal and motor cortex. Computational modeling was used to assess changes in connectivity between regions during normal feedback versus shifted feedback. The results revealed that during shifted speech, bilateral auditory cortex had an increased influence on right frontal areas. This influence indicated that the auditory feedback control of speech is mediated by projections from auditory error cells in posterior superior temporal cortex that travel to motor correction cells in right frontal cortex.
در طی بازخورد تغییر یافته، افزایش فعالیت در قشر گیجگاهی فوقانی دو طرفه مشاهده شد که نشان دهنده عدم تطابق نورونها بین سیگنالهای شنیداری مورد انتظار و واقعی است. افزایش فعالیت در قشر پرهفرونتال و حرکتی سمت راست نیز دیده شد. مدل سازی محاسباتی برای ارزیابی تغییرات در اتصال بین مناطق در طول بازخورد عادی در مقابل بازخورد تغییر یافته استفاده شد. نتایج نشان داد که در حین گفتار شیفتی، قشر شنوایی دو طرفه تأثیر بیشتری بر نواحی پیشانی راست دارد. این تأثیر نشان داد که کنترل بازخورد شنیداری گفتار با پیشبینیهای سلولهای خطای شنوایی در قشر گیجگاهی فوقانی خلفی که به سلولهای اصلاح حرکتی در قشر پیشانی راست حرکت میکنند، واسطه میشود.
We learned in Chapter 6 that evidence from vision research suggests that the feedback control for visuomotor pathways is hierarchically organized. The same notion for the organization of feedback control of speech production has been proposed. Since this hierarchical organization overlaps with some aspects of the hierarchical linguistic models of speech production, we will look at these next.
ما در فصل ۶ آموختیم که شواهد حاصل از تحقیقات بینایی نشان میدهد که کنترل بازخورد برای مسیرهای دیداری حرکتی به صورت سلسله مراتبی سازماندهی شده است. همین مفهوم برای سازماندهی کنترل بازخورد تولید گفتار پیشنهاد شده است. از آنجایی که این سازماندهی سلسله مراتبی با برخی از جنبههای مدلهای زبانی سلسله مراتبی تولید گفتار همپوشانی دارد، در ادامه به این موارد خواهیم پرداخت.
Psycholinguistic Models of Speech Production
مدلهای روانزبانی تولید گفتار
An influential cognitive model for language production was proposed by Willem Levelt (1989) of the Max Planck Institute for Psycholinguistics in the Netherlands (Figure 11.27). The first step in speech production is to prepare the message. Levelt maintains that there are two crucial aspects to message preparation: macroplanning, in which the speaker determines what she wants to express, and microplanning, in which she plans how to express it.
یک مدل شناختی تاثیرگذار برای تولید زبان توسط ویلم لولت (۱۹۸۹) از موسسه ماکس پلانک برای روانشناسی زبان در هلند پیشنهاد شد (شکل ۱۱.۲۷). اولین قدم در تولید گفتار، آماده سازی پیام است. Levelt معتقد است که دو جنبه حیاتی برای آماده سازی پیام وجود دارد: برنامه ریزی کلان، که در آن گوینده تعیین میکند که چه چیزی را میخواهد بیان کند، و برنامه ریزی خرد، که در آن برنامه ریزی میکند که چگونه آن را بیان کند.
The intention of the communication (the what) is represented by goals and subgoals, expressed in an order that best serves the communicative plan. Microplanning how the information is expressed involves adopting a perspective. If we describe a scene in which a house and a park are situated side by side, we must decide whether to say, “The park is next to the house” or “The house is next to the park.” The microplan determines word choice and the grammatical roles that the words play (e.g., subject and object).
هدف ارتباط (چیزی) با اهداف و اهداف فرعی نشان داده میشود که به ترتیبی بیان میشود که به بهترین وجه در خدمت برنامه ارتباطی باشد. برنامه ریزی خرد نحوه بیان اطلاعات شامل اتخاذ یک دیدگاه است. اگر صحنه ای را توصیف کنیم که در آن یک خانه و یک پارک در کنار هم قرار گرفته اند، باید تصمیم بگیریم که بگوییم “پارک کنار خانه است” یا “خانه کنار پارک است”. ریزپلان انتخاب کلمه و نقشهای دستوری کلمات (به عنوان مثال، موضوع و مفعول) را تعیین میکند.
FIGURE 11.27 Outline of Willem Levelt’s theory of speech production.
The processing components in language production are displayed schematically. Word production proceeds through stages of conceptual preparation, lexical selection, morphological and phonological encoding, phonetic encoding, and articulation. Speakers monitor their own speech by making use of their comprehension system.
شکل ۱۱.۲۷ طرح کلی نظریه تولید گفتار ویلم لولت.
اجزای پردازش در تولید زبان به صورت شماتیک نمایش داده میشوند. تولید کلمه از طریق مراحل آماده سازی مفهومی، انتخاب واژگانی، رمزگذاری صرفی و واجی، رمزگذاری آوایی و بیان پیش میرود. گویندگان با استفاده از سیستم درک مطلب خود بر گفتار خود نظارت میکنند.
The output of planning is a conceptual message that constitutes the input for the hypothetical processing component, the formulator, which puts the message in a grammatically and phonologically correct form. During grammatical encoding, a message’s syntactic representation is computed, including information such as “is subject of,” “is object of,” the grammatically correct word order, and so on. The lowest-level syntactic elements, known as lemmas, specify a word’s syntactic properties (e.g., whether the word is a noun or a verb, gender information, and other grammatical features), its semantic features, and the conceptual conditions where it is appropriate to use a certain word. These types of information in the mental lexicon are organized in a network that links lemmas by meaning.
خروجی برنامه ریزی یک پیام مفهومیاست که ورودی جزء پردازش فرضی، فرمول ساز را تشکیل میدهد که پیام را از نظر دستوری و واج شناختی صحیح قرار میدهد. در طول رمزگذاری دستوری، نمایش نحوی یک پیام، شامل اطلاعاتی مانند «موضوع است»، «مبنای است»، ترتیب کلمات از نظر گرامری صحیح و غیره محاسبه میشود. عناصر نحوی پایینترین سطح، که به عنوان لم شناخته میشوند، ویژگیهای نحوی یک کلمه (به عنوان مثال، اسم یا فعل بودن کلمه، اطلاعات جنسیت و سایر ویژگیهای دستوری)، ویژگیهای معنایی آن، و شرایط مفهومیآن را مشخص میکنند. برای استفاده از یک کلمه خاص این نوع اطلاعات در واژگان ذهنی در شبکهای سازماندهی شدهاند که لمها را بر اساس معنا به هم پیوند میدهد.
Levelt’s model predicts the following result when someone is presented with a picture of a flock of goats and is asked to name the subject of the picture. First the concept that represents a goat is activated, but concepts related to the meaning of goat are also activated-for example, sheep, cheese, farm. Activated concepts, in turn, activate representations in the mental lexicon, starting with “nodes” at the lemma level to access syntactic information such as word class (in our example, goat is a noun, not a verb). At this point, lexical selection occurs when the syntactic properties of the word appropriate to the presented picture must be retrieved. The selected information (in our example, goat) activates the word form.
مدل Levelt نتیجه زیر را زمانی پیشبینی میکند که تصویری از یک گله بز به کسی ارائه شود و از او خواسته شود موضوع تصویر را نام ببرد. ابتدا مفهومیکه نشان دهنده بز است فعال میشود، اما مفاهیم مربوط به معنای بز نیز فعال میشوند – مثلاً گوسفند، پنیر، مزرعه. مفاهیم فعال، به نوبه خود، بازنماییها را در فرهنگ لغت ذهنی فعال میکنند و با “گرهها” در سطح لم شروع میشوند تا به اطلاعات نحوی مانند کلاس کلمه دسترسی پیدا کنند (در مثال ما، goat یک اسم است، نه یک فعل). در این مرحله، انتخاب واژگانی زمانی اتفاق میافتد که ویژگیهای نحوی کلمه متناسب با تصویر ارائه شده باید بازیابی شود. اطلاعات انتخاب شده (در مثال ما، بز) فرم کلمه را فعال میکند.
Next the word form undergoes morphological encoding when the pluralizing morpheme “s” is added: goats. The modified word form contains both phonological information and metrical information, which is information about the number of syllables in the word and the stress pattern (in our example, goats consists of one syllable that is stressed). The process of phonological encoding ensures that the phonological information is mapped onto the metrical information.
در مرحله بعد، زمانی که تکواژ “s” جمع کننده اضافه میشود: بزها، شکل کلمه تحت رمزگذاری صرفی قرار میگیرد. شکل کلمه اصلاح شده شامل اطلاعات واجی و اطلاعات متریک است که اطلاعاتی در مورد تعداد هجاهای کلمه و الگوی استرس است (در مثال ما، goats از یک هجا تشکیل شده است که تاکید دارد). فرآیند رمزگذاری واجی تضمین میکند که اطلاعات واجی بر روی اطلاعات متریک نگاشت میشود.
In contrast to the modular view in Levelt’s model, interactive models such as the one proposed by Gary Dell at the University of Illinois (1986) suggest that phonological activation begins shortly after the semantic and syntactic information of words has been activated. Unlike modular models, interactive models permit feedback from the phonological activation to the semantic and syntactic properties of the word, there- by enhancing the activation of certain syntactic and semantic information.
برخلاف دیدگاه مدولار در مدل Levelt، مدلهای تعاملی مانند آنچه توسط گری دل در دانشگاه ایلینویز (۱۹۸۶) پیشنهاد شد، نشان میدهد که فعالسازی واجشناختی مدت کوتاهی پس از فعال شدن اطلاعات معنایی و نحوی کلمات آغاز میشود. برخلاف مدلهای مدولار، مدلهای تعاملی امکان بازخورد از فعالسازی واجشناختی به ویژگیهای معنایی و نحوی کلمه را فراهم میکنند و از این طریق فعالسازی برخی اطلاعات نحوی و معنایی را افزایش میدهند.
Neural Substrates of Language Production
بسترهای عصبی تولید زبان
Ned Sahin and his colleagues (2009) had the rare opportunity to shed some light on this question of how different forms of linguistic information are combined during speech production. They recorded local field potentials from multiple electrodes implanted in and around Bro- ca’s area during presurgical screening of three epilepsy patients. To investigate word production in the brain, the patients were engaged in a task involving three conditions that distinguished lexical, grammatical, and phonological linguistic processes.
ند شاهین و همکارانش (۲۰۰۹) فرصت نادری را برای روشن کردن این سوال داشتند که چگونه اشکال مختلف اطلاعات زبانی در طول تولید گفتار ترکیب میشوند. آنها پتانسیل میدانی موضعی را از چندین الکترود کاشته شده در ناحیه بروکا و اطراف آن در طول غربالگری قبل از جراحی سه بیمار صرعی ثبت کردند. برای بررسی تولید کلمه در مغز، بیماران درگیر یک کار شامل سه شرط بودند که فرآیندهای زبانی واژگانی، دستوری و واجی را متمایز میکرد.
Most of the electrodes in Broca’s area yielded strong responses correlated with distinct linguistic processing stages. The first wave recorded by the cortical electrodes occurred at about 200 ms and appeared to reflect lexical identification. The second wave occurred at about 320 ms and was modulated by inflectional demands. It was not, however, modulated by phonological programming. This was seen in the third wave, which appeared at about 450 ms and reflected phonological encoding. In naming have shown that they involve the SMA, the opercular tasks, speech typically occurs at 600 ms.
بسیاری از الکترودهای موجود در ناحیه بروکا پاسخهای قوی مرتبط با مراحل پردازش زبانی متمایز از خود نشان دادند. اولین موج ثبت شده توسط الکترودهای قشر مغز در حدود ۲۰۰ میلی ثانیه رخ داد و به نظر میرسید که منعکس کننده شناسایی واژگانی باشد. موج دوم در حدود ۳۲۰ میلیثانیه رخ داد و توسط تقاضاهای انحرافی تعدیل شد. با این حال، توسط برنامهنویسی واجشناختی تعدیل نشد. این در موج سوم مشاهده شد که در حدود ۴۵۰ میلی ثانیه ظاهر شد و رمزگذاری واجی را منعکس کرد. در نامگذاری نشان داده شده است که آنها شامل SMA، وظایف opercular، گفتار معمولا در ۶۰۰ میلی ثانیه رخ میدهد.
Sahin and his coworkers could also see that motor neuron commands occur 50 to 100 ms before speech, putting them just after the phonological wave. These apparent processing steps were separated not only temporally, but also spatially by a few millimeters (below the resolution of standard fMRI or MEG), and all were located in Broca’s area. These findings provide support for serial processing initially during speech production. Inflectional processing did not occur before the word was identified, and phonological processing did not occur until inflected phonemes were selected. The results are also consistent with the idea that Broca’s area has distinct circuits that process lexical, grammatical, and phonological information.
شاهین و همکارانش همچنین میتوانستند ببینند که دستورات نورون حرکتی ۵۰ تا ۱۰۰ میلیثانیه قبل از گفتار اتفاق میافتد، و آنها را درست بعد از موج واجی قرار میدهند. این مراحل پردازش ظاهری نه تنها از نظر زمانی، بلکه از نظر مکانی نیز با چند میلی متر (زیر رزولوشن استاندارد fMRI یا MEG) از هم جدا شدند و همه در ناحیه بروکا قرار داشتند. این یافتهها از پردازش سریال در ابتدا در طول تولید گفتار پشتیبانی میکند. پردازش عطف قبل از شناسایی کلمه اتفاق نیفتاد و پردازش واج شناختی تا زمانی که واجهای عطفی انتخاب نشدند اتفاق نیفتاد. نتایج همچنین با این ایده که ناحیه بروکا دارای مدارهای مجزایی است که اطلاعات واژگانی، دستوری و واجی را پردازش میکند، سازگار است.
Imaging studies of the brain during picture naming and word generation found activation in the inferior temporal regions of the left hemisphere and in the left frontal operculum (Broca’s area). The activation in the frontal operculum might be specific to phonological encoding in speech production. The articulation of words likely involves the posterior parts of Broca’s area (BA44), but studies have also shown bilateral activation of motor cortex, the supplementary motor area (SMA), and the insula. PET and fMRI studies of the motor aspects of speech have shown that they involve the SMA, the opercular parts of the precentral gyrus, the posterior parts of the inferior frontal gyrus (Broca’s area), the insula, the mouth region of the primary sensorimotor cortex, the basal ganglia, the thalamus, and the cerebellum (reviewed in Ack- ermann & Riecker, 2010). It is clear that a widespread network of brain regions, predominantly in the left hemisphere in most people, is involved in producing speech.
مطالعات تصویربرداری از مغز در طی نامگذاری تصویر و تولید کلمه، فعال شدن را در نواحی زمانی تحتانی نیمکره چپ و در اپرکولوم پیشانی چپ (ناحیه بروکا) نشان داد. فعال شدن در اپرکولوم پیشانی ممکن است مختص رمزگذاری واجی در تولید گفتار باشد. بیان کلمات احتمالاً شامل قسمتهای خلفی ناحیه بروکا (BA44) میشود، اما مطالعات همچنین فعال شدن دو طرفه قشر حرکتی، ناحیه حرکتی تکمیلی (SMA) و اینسولا را نشان داده است. مطالعات PET و fMRI روی جنبههای حرکتی گفتار نشان دادهاند که آنها SMA، قسمتهای شکنج پیش مرکزی، قسمتهای خلفی شکنج فرونتال تحتانی (ناحیه بروکا)، اینسولا، ناحیه دهان قشر حسی حرکتی اولیه را شامل میشوند. عقدههای قاعده ای، تالاموس و مخچه (در Ackermann & ریکر، ۲۰۱۰). واضح است که شبکه گسترده ای از مناطق مغز، عمدتاً در نیمکره چپ در اکثر افراد، در تولید گفتار نقش دارند.
One model that begins to integrate current knowledge of both motor control and psycholinguistics is the hierarchical state feedback control (HSFC) model proposed by Gregory Hickok from UC Irvine (2012; Figure 11.28). As in psycholinguistic models, the input to the HSFC model begins with activation of a conceptual representation that in turn excites a corresponding word representation.
یکی از مدلهایی که شروع به ادغام دانش فعلی از کنترل حرکتی و روانزبانی میکند، مدل کنترل بازخورد وضعیت سلسله مراتبی (HSFC) است که توسط گرگوری هیکوک از UC Irvine (2012؛ شکل ۱۱.۲۸) پیشنهاد شده است. همانند مدلهای روانزبانی، ورودی مدل HSFC با فعالسازی یک بازنمایی مفهومیآغاز میشود که به نوبه خود بازنمایی کلمه مربوطه را تحریک میکند.
At this point, parallel processing begins in the sensory and motor systems associated with two levels of hierarchical control. The higher level codes speech information at the syllable level (i.e., vocal-tract opening and closing cycles). It contains a sensorimotor loop with sensory targets in auditory cortex and motor programs coded in BA44 (in Broca’s area), BA6, and area Spt, a region involved with sensorimotor integration in the left planum temporale (see Chapter 4) located in the posterior Sylvian fissure. The lower level codes speech information at the level of articulatory features that roughly correspond to phonemes and involve a sensorimotor loop that includes sensory targets coded primarily in somatosensory cortex, motor programs coded in primary motor cortex (MI), and a cerebellar circuit mediating the two. Though ac- knowledging that this model is an oversimplification, Hickok suggests that attempting to integrate motor control approaches and psycholinguistics will produce testable hypotheses and further our understanding of speech production.
در این مرحله، پردازش موازی در سیستمهای حسی و حرکتی مرتبط با دو سطح کنترل سلسله مراتبی آغاز میشود. سطح بالاتر اطلاعات گفتار را در سطح هجا رمزگذاری میکند (یعنی چرخههای باز و بسته شدن دستگاه صوتی). این شامل یک حلقه حسی حرکتی با اهداف حسی در قشر شنوایی و برنامههای حرکتی است که در BA44 (در ناحیه بروکا)، BA6 و ناحیه Spt، منطقهای درگیر با یکپارچگی حسی حرکتی در پلانوم تمپورال چپ (به فصل ۴) واقع در سیلوین خلفی کدگذاری شدهاند. شکاف سطح پایینتر اطلاعات گفتار را در سطح ویژگیهای مفصلی رمزگذاری میکند که تقریباً با واجها مطابقت دارد و شامل یک حلقه حسی حرکتی است که شامل اهداف حسی کدگذاری شده در قشر حسی جسمی، برنامههای حرکتی کدگذاری شده در قشر حرکتی اولیه (MI) و یک مدار مخچهای که میانجی این دو است. . اگرچه هیکوک با اذعان به اینکه این مدل سادهسازی بیش از حد است، پیشنهاد میکند که تلاش برای ادغام رویکردهای کنترل حرکتی و روانزبانشناسی، فرضیههای قابل آزمایشی را ایجاد میکند و درک ما از تولید گفتار را بیشتر میکند.
FIGURE 11.28 The hierarchical state feedback control model.
Input to the HSFC model begins with the activation of a conceptual representation that in turn excites a corresponding word (lemma) representation, just as in linguistic models. Unlike the situation in some psycholinguistic models, the phonological level is split into a motor and a sensory phonological system. The word level projects in parallel to sensory (right) and motor (left) sides of two hierarchical levels of feedback control, each with its own internal and external sensory feedback loops. aSMG = anterior supramarginal gyrus; M1 = primary motor cortex; S1 = primary somatosensory cortex; Spt = sensorimotor integration region of the left planum temporale; STG = superior temporal gyrus; STS = superior temporal sulcus; vBA6 = ventral Brodmann area 6.
شکل ۱۱.۲۸ مدل کنترل بازخورد حالت سلسله مراتبی.
ورودی مدل HSFC با فعال سازی یک نمایش مفهومیآغاز میشود که به نوبه خود یک نمایش کلمه (لما) متناظر را تحریک میکند، درست مانند مدلهای زبانی. برخلاف وضعیت برخی از مدلهای روانزبانی، سطح واجشناختی به یک سیستم واجشناختی حرکتی و حسی تقسیم میشود. سطح کلمه به موازات دو طرف حسی (راست) و حرکتی (چپ) دو سطح سلسله مراتبی کنترل بازخورد، هر یک دارای حلقههای بازخورد حسی داخلی و خارجی خاص خود است. aSMG = شکنج فوق حاشیه قدامی. M1 = قشر حرکتی اولیه. S1 = قشر حسی جسمیاولیه. Spt = ناحیه ادغام حسی حرکتی پلانوم تمپورال چپ. STG = شکنج گیجگاهی برتر. STS = شیار گیجگاهی برتر. vBA6 = ناحیه برادمن شکمی۶.
TAKE-HOME MESSAGES
پیامهای اصلی
▪️ Speech production involves the use of orofacial muscles that are controlled by processes using internal forward models and sensory feedback.
▪️ تولید گفتار شامل استفاده از ماهیچههای دهانی است که توسط فرآیندهایی با استفاده از مدلهای داخلی رو به جلو و بازخورد حسی کنترل میشوند.
▪️Models of language production must account for the processes of selecting the information to be contained in the message; retrieving words from the lexicon; planning sentences and encoding grammar using semantic and syntactic properties of the word; using morphological and phonological properties for syllabification and prosody; and preparing articulatory gestures for each syllable.
▪️ مدلهای تولید زبان باید برای فرآیندهای انتخاب اطلاعاتی که باید در پیام موجود باشد را در نظر بگیرند. بازیابی کلمات از فرهنگ لغت. برنامه ریزی جملات و رمزگذاری دستور زبان با استفاده از ویژگیهای معنایی و نحوی کلمه. استفاده از خواص صرفی و واجی برای هجا و عروض. و برای هر هجا حرکات مفصلی آماده میکند.
▪️ Each stage in Levelt’s model for language production occurs serially, and its output representation is used for input to the next stage. The model avoids feedback, loops, parallel processing, and cascades. The early stages of this model fit well with the findings of ERPs recorded intracranially.
▪️ هر مرحله در مدل Levelt برای تولید زبان به صورت سریالی رخ میدهد و نمایش خروجی آن برای ورودی به مرحله بعدی استفاده میشود. این مدل از بازخورد، حلقهها، پردازش موازی و آبشار اجتناب میکند. مراحل اولیه این مدل به خوبی با یافتههای ERP ثبت شده داخل جمجمه مطابقت دارد.
▪️ Hickok’s model of speech production involves parallel processing and two levels of hierarchical control.
▪️ مدل هیکوک از تولید گفتار شامل پردازش موازی و دو سطح کنترل سلسله مراتبی است.
۱۱.۷ Evolution of Language
۱۱.۷ تکامل زبان
Young children acquire language easily and quickly when exposed to it. This behavior led Charles Darwin to suggest in his book The Descent of Man, and Selection in Relation to Sex that humans have a biological predisposition toward language. The evolutionary origins of language remain unknown, though there is no shortage of theories. Indeed, Noam Chomsky took the view in 1975 that language was so different from the communication systems used by other animals that it could not be explained in terms of natural selection. Steven Pinker and Paul Bloom suggested in an article in 1990 that only natural selection could have produced the complex structures of language. There are divergent views as to when language emerged, whether the question trying to be explained is an underlying cognitive mechanism specific to language or a cooperative social behavior, and what crucial evolutionary problems had to be solved before language could emerge (Sterelny, 2012).
کودکان خردسال وقتی در معرض زبان قرار میگیرند به راحتی و به سرعت زبان را فرا میگیرند. این رفتار چارلز داروین را بر آن داشت تا در کتاب خود با عنوان «تبار انسان و انتخاب در رابطه با جنسیت» پیشنهاد کند که انسانها استعداد بیولوژیکی نسبت به زبان دارند. منشاء تکاملی زبان ناشناخته باقی مانده است، اگرچه نظریات کمیوجود ندارد. در واقع، نوام چامسکی در سال ۱۹۷۵ این نظر را داشت که زبان آنقدر متفاوت از سیستمهای ارتباطی مورد استفاده سایر حیوانات است که نمیتوان آن را از نظر انتخاب طبیعی توضیح داد. استیون پینکر و پل بلوم در مقاله ای در سال ۱۹۹۰ پیشنهاد کردند که فقط انتخاب طبیعی میتواند ساختارهای پیچیده زبان را ایجاد کند. دیدگاههای متفاوتی درباره زمان ظهور زبان وجود دارد، این که آیا سؤالی که میخواهد توضیح داده شود یک مکانیسم شناختی زیربنایی خاص زبان است یا یک رفتار اجتماعی مشارکتی، و اینکه چه مشکلات اساسی تکاملی باید حل شود تا زبان بتواند ظهور کند (استرنی، ۲۰۱۲).
Shared Intentionality
هدفمندی مشترک
Communication is the transfer of information by speech, signals, writing, or behavior. The function of human language is to influence the behavior of others by changing what they know, think, believe, or desire (Grice, 1957), and we tend to think communication is intentional. When we are looking for the origins of language, how- ever, we cannot assume that communication sprang up in this form. Animal communication is more generally defined as any behavior by one animal that affects the current or future behavior of another animal, intentional or otherwise.
ارتباط انتقال اطلاعات از طریق گفتار، سیگنال، نوشتار یا رفتار است. کارکرد زبان انسان این است که بر رفتار دیگران با تغییر آنچه میدانند، فکر میکنند، اعتقاد دارند یا میخواهند، تأثیر بگذارد (گریس، ۱۹۵۷)، و ما تمایل داریم که ارتباط را عمدی بدانیم. با این حال، وقتی ما به دنبال منشأ زبان هستیم، نمیتوانیم فرض کنیم که ارتباطات به این شکل شکل گرفته است. ارتباط حیوانی به طور کلی به عنوان هر رفتاری از سوی یک حیوان که بر رفتار فعلی یا آینده حیوان دیگر تأثیر میگذارد، عمدی یا غیر آن، تعریف میشود.
A well-known series of studies in animal communication was conducted by Robert Seyfarth and Dorothy Cheney on vervet monkeys in Kenya (Seyfarth et al., 1980). These monkeys have different alarm calls for snakes, leopards, and predatory birds. Monkeys that hear an alarm call for a snake will stand up and look down. But with a leopard call, they scamper into the trees; and with a bird call, they run from the exposed ends of the branches and huddle by the trunk. Formerly, it was thought that animal vocalizations were exclusively emotional—and indeed, they most likely originated as such. A vervet, however, does not always make an alarm call, seldom calls when it is alone, and is more likely to call when it is with kin than with non-kin. The calls are not an automatic emotional reaction.
یک سری مطالعات معروف در ارتباط با حیوانات توسط رابرت سیفارت و دوروتی چنی بر روی میمونهای وروت در کنیا انجام شد (سیفارت و همکاران، ۱۹۸۰). این میمونها زنگهای هشدار متفاوتی برای مارها، پلنگها و پرندگان شکارچی دارند. میمونهایی که صدای زنگ مار را میشنوند، بلند میشوند و به پایین نگاه میکنند. اما با صدای پلنگ، آنها به درختان میریزند. و با صدای پرنده از انتهای باز شاخهها میدوند و کنار تنه جمع میشوند. قبلاً تصور میشد که آوازهای حیوانات منحصراً عاطفی هستند – و در واقع، به احتمال زیاد به همین دلیل سرچشمه میگیرند. با این حال، یک Vervet همیشه زنگ خطر نمیزند، به ندرت زمانی که تنها است زنگ میزند، و زمانی که با خویشاوندانش باشد بیشتر از غیر خویشاوندان تماس میگیرد. تماسها یک واکنش احساسی خودکار نیستند.
If a call is to provide information, it has to be specific (the same call can’t be used for several different reasons) and informative (it has to be made only when a specific situation arises; Seyfarth & Cheney, 2003b). Thus, even though a scream may be an emotional reaction, if it is specific it can convey information other than the emotion (Premack, 1972). Natural selection favors callers who vocalize to affect the behavior of listeners, and listeners who acquire information from vocalizations (Seyfarth & Cheney, 2003a). The two do not need to be linked by intention originally, and indeed, vervet monkeys don’t appear to attribute mental states to others (Seyfarth & Cheney, 1986). Most animal studies suggest that although animal vocalizations may result in a change of another’s behavior, this outcome is unintentional (see Seyfarth & Cheney, 2003).
اگر قرار است یک تماس برای ارائه اطلاعات باشد، باید خاص باشد (از یک تماس به دلایل مختلف نمیتوان استفاده کرد) و آموزنده (فقط زمانی که یک موقعیت خاص ایجاد میشود انجام شود؛ سیفرث و چنی، 2003b). بنابراین، حتی اگر یک فریاد ممکن است یک واکنش عاطفی باشد، اگر خاص باشد میتواند اطلاعاتی غیر از احساس را منتقل کند (پریمک، ۱۹۷۲). انتخاب طبیعی از تماس گیرندگانی که صدا میزنند تا بر رفتار شنوندگان تأثیر بگذارند و شنوندگانی که اطلاعات را از آواها به دست میآورند، ترجیح میدهد (Seyfarth & Cheney, 2003a). نیازی نیست که این دو در اصل با قصد و نیت به هم مرتبط شوند، و در واقع، به نظر نمیرسد که میمونهای مخروطی حالات ذهنی را به دیگران نسبت دهند (سیفرث و چنی، ۱۹۸۶). بیشتر مطالعات حیوانی نشان میدهد که اگرچه آوازهای حیوانی ممکن است منجر به تغییر رفتار دیگران شود، اما این نتیجه غیرعمدی است (به Seyfarth & Cheney، ۲۰۰۳ مراجعه کنید).
Alarm calls have since been found in many other monkey species and non-primate species. For instance, they have been observed with meerkats (Manser et al., 2001) and chickadees (Templeton et al., 2005), among others. The Diana monkeys of West Africa comprehend the alarm calls of another species that resides in the area, the Campbell’s monkey (Zuberbühler, 2001). They also understand that if the alarm call is preceded by a “boom” call, the threat is not as urgent.
زنگ هشدار از آن زمان در بسیاری از گونههای دیگر میمونها و گونههای غیر نخستیها یافت شده است. به عنوان مثال، آنها با میرکاتها (Manser et al., 2001) و chickadees (Templeton et al., 2005) در میان دیگران مشاهده شده اند. میمونهای دیانا در غرب آفریقا صدای زنگ گونه دیگری را که در آن منطقه زندگی میکند، میمون کمپبل (Zuberbühler, 2001) درک میکنند. آنها همچنین میدانند که اگر قبل از زنگ هشدار، یک تماس «بوم» وجود داشته باشد، تهدید آنقدر فوری نیست.
Campbell’s monkeys themselves utilize a rudimentary syntax, sometimes referred to as protosyntax (Ouattara et al., 2009). Adult males have six loud calls that they combine in different, highly context-specific ways. But, as was concluded in other studies, whether these combined calls are used for intentional communication is not known. The communication skills of monkeys are impressive, and more complex than previously thought, but it remains clear that such communication is quite different from human language.
خود میمونهای کمپبل از یک نحو ابتدایی استفاده میکنند که گاهی به آن پیشسینتکس میگویند (Ouattara et al., 2009). نرهای بالغ شش تماس با صدای بلند دارند که آنها را به روشهای مختلف و کاملاً با زمینه خاص ترکیب میکنند. اما همانطور که در مطالعات دیگر نتیجه گیری شد، مشخص نیست که آیا این تماسهای ترکیبی برای ارتباط عمدی استفاده میشوند یا خیر. مهارتهای ارتباطی میمونها بسیار چشمگیر و پیچیده تر از آن چیزی است که قبلاً تصور میشد، اما واضح است که چنین ارتباطی کاملاً با زبان انسان متفاوت است.
Gesture and Communication
ژست و ارتباط
Vocalization is not the only place to look for clues about the evolution of human language. New Zealand psychologist Michael Corballis suggests that human language began with gestures. He has proposed that generative language evolved, perhaps from Homo habilis on, as a system of manual gestures, but switched to a predominantly vocal system with H. sapiens sapiens (Corballis 1991, 2009). A logical question to ask is whether nonhuman primates use gestures to communicate.
صداسازی تنها جایی نیست که میتوان به دنبال سرنخهایی درباره تکامل زبان انسان بود. مایکل کوربالیس روانشناس نیوزلندی پیشنهاد میکند که زبان انسان با حرکات و حرکات شروع میشود. او پیشنهاد کرده است که زبان مولد، شاید از هوموهابیلیس به بعد، به عنوان سیستمیاز حرکات دستی تکامل یافته است، اما به سیستمیعمدتاً آوازی با H. sapiens sapiens تبدیل شده است (Corballis 1991، ۲۰۰۹). یک سوال منطقی که باید پرسید این است که آیا نخستیهای غیرانسانی از حرکات برای برقراری ارتباط استفاده میکنند؟
Michael Tomasello, a researcher at the Max Planck Institute for Evolutionary Anthropology in Germany, points out that among primates, especially the great apes, gestures are more important than vocalizations for communication, and that the function of communication differs, depending on whether it is vocal or gestural (Tomasello, 2007). In general, vocal calls in the great apes tend to be involuntary signals, associated with a specific emotional state, produced in response to specific stimuli, and broadcast to the surrounding group. They are inflexible.
مایکل تومازلو، محقق مؤسسه انسانشناسی تکاملی ماکس پلانک در آلمان، خاطرنشان میکند که در میان نخستیسانان، بهویژه میمونهای بزرگ، ژستها برای برقراری ارتباط مهمتر از صداگذاری هستند و عملکرد ارتباط بسته به آوازی بودن آن متفاوت است. یا اشاره ای (توماسلو، ۲۰۰۷). به طور کلی، تماسهای صوتی در میمونهای بزرگ معمولاً سیگنالهای غیرارادی هستند که با یک حالت عاطفی خاص مرتبط هستند، در پاسخ به محرکهای خاص تولید میشوند و برای گروه اطراف پخش میشوند. آنها انعطاف ناپذیر هستند.
By contrast, gestures are flexible; they are used in non-urgent contexts to initiate such things as playing and grooming with a specific individual, and some are learned socially by gorillas (Pika et al., 2003), chimps (Liebal et al., 2004), and bonobos (Pika et al., 2005). Tomasello emphasizes that unlike vocalizations, gestures require knowing the attentional state of the communicating partner. It’s no good making a gesture if no one is paying attention to you. He concludes that primate gestures are more like human language than like either primate vocalizations or human gestural communication (Tomasello and Call, 2018). He suggests, therefore, that the roots of human language may be found in the gestural communication of the great apes.
در مقابل، ژستها انعطاف پذیر هستند. آنها در زمینههای غیر فوری برای شروع کارهایی مانند بازی و آراستگی با یک فرد خاص مورد استفاده قرار میگیرند، و برخی از آنها به صورت اجتماعی توسط گوریلها (پیکا و همکاران، ۲۰۰۳)، شامپانزهها (لیبال و همکاران، ۲۰۰۴) و بونوبوها (به صورت اجتماعی) آموخته میشوند. پیکا و همکاران، ۲۰۰۵). تومازلو تاکید میکند که بر خلاف آواها، ژستها مستلزم دانستن وضعیت توجه شریک در ارتباط هستند. اگر کسی به شما توجهی نداشته باشد، ژست گرفتن خوب نیست. او نتیجه میگیرد که ژستهای نخستیها بیشتر شبیه زبان انسان هستند تا شبیه به صداهای نخستیها یا ارتباطات اشارهای انسان (توماسلو و کال، ۲۰۱۸). بنابراین، او پیشنهاد میکند که ریشههای زبان انسان را میتوان در ارتباط اشاره ای میمونهای بزرگ یافت.
Monkeys and the great apes have little cortical control over vocalization but excellent cortical control over the hands and fingers (Ploog, 2002). From these findings and what we know about primate anatomy, it is not surprising that attempts to teach nonhuman primates to speak have failed. Teaching them to communicate manually has been more successful. For instance, Washoe, a chimpanzee, learned a form of manual sign language, and knew approximately 350 signs (Gardner & Gardner, 1969).
میمونها و میمونهای بزرگ کنترل قشری کمیبر صداسازی دارند اما کنترل قشری عالی روی دستها و انگشتان دارند (Ploog، ۲۰۰۲). با توجه به این یافتهها و آنچه در مورد آناتومی پستانداران میدانیم، جای تعجب نیست که تلاشها برای آموزش صحبت کردن به پستانداران غیرانسان شکست خورده است. آموزش برقراری ارتباط دستی به آنها موفقیت آمیزتر بوده است. به عنوان مثال، Washoe، یک شامپانزه، شکلی از زبان اشاره دستی را یاد گرفت و تقریباً ۳۵۰ نشانه را میدانست (گاردنر و گاردنر، ۱۹۶۹).
Kanzi, a bonobo, has learned to point to abstract visual symbols, or lexigrams, on a keyboard and to use that information to communicate (Savage-Rumbaugh & Lewin, 1994; Figure 11.29). Work with Kanzi that was done over the years by Sue Savage-Rumbaugh and her colleagues has also shown that he possesses a protosyntax. For example, relying on word order, he understands the difference between “Make the doggie bite the snake” and “Make the snake bite the doggie,” and he demonstrates his understanding by using stuffed animals.
کانزی، یک بونوبو، یاد گرفته است که به نمادهای بصری انتزاعی، یا واژگان، روی صفحه کلید اشاره کند و از آن اطلاعات برای برقراری ارتباط استفاده کند (Savage-Rumbaugh & Lewin، ۱۹۹۴؛ شکل ۱۱.۲۹). کار با کانزی که طی سالها توسط سو ساویج رامباو و همکارانش انجام شد، همچنین نشان داد که او دارای یک پیشنویس است. به عنوان مثال، با تکیه بر ترتیب کلمات، تفاوت بین «سگ را به گاز زدن مار کن» و «ما را وادار کن که سگ را گاز بگیرد» را درک میکند و درک خود را با استفاده از حیوانات عروسکی نشان میدهد.
FIGURE 11.29 Sue Savage-Rumbaugh, Kanzi the bonobo, and the lexigrams he has learned to use for communication.
Kanzi is able to match 378 lexigrams with the objects, places, and spoken words they represent. He is able to combine the lexigrams into a protosyntax, and he freely uses the keyboard to ask for objects he wants. He can generalize a specific reference; for instance, he uses the lexigram for bread to mean all breads, including tortillas. Thus, Kanzi is able to understand signs in a symbolic way.
شکل ۱۱.۲۹ سو ساویج-رامبا، کانزی بونوبو، و واژگانی که او یاد گرفته است از آن برای ارتباط استفاده کند.
کانزی قادر است ۳۷۸ واژگان را با اشیا، مکانها و کلمات گفتاری که آنها نشان میدهند مطابقت دهد. او قادر است واژگان را در یک پیشنویس ترکیب کند و آزادانه از صفحه کلید برای درخواست اشیاء مورد نظر خود استفاده میکند. او میتواند یک مرجع خاص را تعمیم دهد. به عنوان مثال، او از لغت نامه برای نان به معنای همه نانها، از جمله تورتیلا استفاده میکند. بنابراین، کانزی قادر است نشانهها را به صورت نمادین درک کند.
Another line of evidence comes from Giacomo Rizzolatti and Michael Arbib (1998), who suggested that language arose from a combination of gestures and facial movements, speculating that mirror neurons are a piece of the language puzzle. Mirror neurons were first discovered in area F5 in the monkey, a region in the ventral, rostral premotor cortex (see Chapter 8). The dorsal portion of F5 is involved with hand movements, and the ventral portion, with movement of the mouth and larynx. Area F5 is adjacent to the homologue of human Brodmann area 44, a portion of Broca’s area (Petrides et al., 2005). In the monkey, this region is involved in high-level control of orofacial musculature, including muscles involved in communication. Thus, mirror neurons may help us understand the evolution of language.
یکی دیگر از شواهد از جاکومو ریزولاتی و مایکل آربیب (۱۹۹۸) میآید، که پیشنهاد کردند که زبان از ترکیبی از ژستها و حرکات صورت نشأت میگیرد و حدس میزنند که نورونهای آینه ای قطعه ای از پازل زبان هستند. نورونهای آینه ای برای اولین بار در ناحیه F5 در میمون، ناحیه ای در قشر پیش حرکتی شکمیو منقاری کشف شدند (به فصل ۸ مراجعه کنید). قسمت پشتی F5 با حرکات دست و قسمت شکمیبا حرکت دهان و حنجره درگیر است. ناحیه F5 در مجاورت همولوگ ناحیه برودمن انسانی ۴۴، بخشی از ناحیه بروکا است (Petrides et al., 2005). در میمون، این ناحیه در کنترل سطح بالایی از ماهیچههای دهان و صورت، از جمله عضلات درگیر در ارتباط، نقش دارد. بنابراین، نورونهای آینه ای ممکن است به ما در درک تکامل زبان کمک کنند.
Initially, this close association of hand and mouth may have been related to eating, but it later could have expanded to gestures and vocal language. There is some evidence for this proposal. In macaque monkeys, neurons in the lateral part of F5 have been found to activate with conditioned vocalizations-that is, voluntary coo calls that the monkeys were trained to make (Coudé et al., 2011).
در ابتدا، این ارتباط نزدیک دست و دهان ممکن است با غذا خوردن مرتبط باشد، اما بعداً میتواند به حرکات و زبان صوتی گسترش یابد. شواهدی برای این پیشنهاد وجود دارد. در میمونهای ماکاک، نورونها در قسمت جانبی F5 با صداهای شرطی فعال میشوند، یعنی صداهای داوطلبانه ای که میمونها برای انجام آن آموزش دیده بودند (کوده و همکاران، ۲۰۱۱).
We know that the left hemisphere controls the motor movements of the right side of the body, in both humans and the great apes. Chimpanzees exhibit preferential use of the right hand in gestural communication both with other chimps and with humans (Meguerditchian et al., 2010), but not when making noncommunicative gestures. This behavior is also seen in captive baboons (Meguerditchian & Vauclair, 2006; Meguerditchian et al., 2010), suggesting that the emergence of language and its typical left lateralization may have arisen from a left-lateralized gestural communication system in the common ancestor of baboons, chimps, and humans.
میدانیم که نیمکره چپ حرکات حرکتی سمت راست بدن را هم در انسان و هم در میمونهای بزرگ کنترل میکند. شامپانزهها استفاده ترجیحی از دست راست را در ارتباطات اشاره ای هم با شامپانزههای دیگر و هم با انسانها نشان میدهند (مگوئردیچیان و همکاران، ۲۰۱۰)، اما نه در هنگام انجام حرکات غیر ارتباطی. این رفتار در بابونهای اسیر نیز دیده میشود (Meguerditchian & Vauclair, 2006; Meguerditchian et al., 2010) که نشان میدهد پیدایش زبان و جانبیسازی چپ معمولی آن ممکن است ناشی از یک سیستم ارتباطی اشارهای چپگرایانه باشد. جد بابونها، شامپانزهها و انسانها.
At present, the proposal that gesturing may have given rise during the course of evolution to human language ability remains interesting, but not universally accepted, and much of the evidence offered in support of this idea has been challenged. Anthropologist and gesture scientist Adam Kendon has argued that oral and gestural communication skills may have evolved in primates in parallel (Kendon, 2017). Moreover, the most dramatic differences between humans and nonhuman primates in the left perisylvian region are those involving the rise of left-hemisphere specializations in humans, the representation of linguistic information in the temporal lobe, and the increased connectivity of the temporal lobe with the networks of the left perisylvian region of the brain.
در حال حاضر، این پیشنهاد که اشاره کردن ممکن است در طول سیر تکاملی توانایی زبان انسان را به وجود آورده باشد، جالب است، اما به طور جهانی پذیرفته نشده است، و بسیاری از شواهد ارائه شده در حمایت از این ایده به چالش کشیده شده است. آدام کندون، انسان شناس و دانشمند ژستها، استدلال کرده است که مهارتهای ارتباطی شفاهی و اشاره ای ممکن است در پستانداران به طور موازی تکامل یافته باشد (کندون، ۲۰۱۷). علاوه بر این، چشمگیرترین تفاوتها بین انسانها و نخستیهای غیرانسان در ناحیه پریسیلوی چپ، مواردی است که شامل افزایش تخصصهای نیمکره چپ در انسان، نمایش اطلاعات زبانی در لوب گیجگاهی، و افزایش ارتباط لوب گیجگاهی با شبکهها میشود. ناحیه پریسیلویان چپ مغز.
Left-Hemisphere Dominance and Specialization
تسلط و تخصص نیمکره چپ
Human language is clearly a left-hemisphere-dominant ability. But what is it about the left hemisphere that is different in humans, and how did this specialization arise over the course of evolution? We have some clues. The first question we might ask is whether communication is left-hemisphere dominant in nonhuman primates.
زبان انسان به وضوح یک توانایی غالب در نیمکره چپ است. اما چه چیزی در نیمکره چپ در انسان متفاوت است و چگونه این تخصص در طول تکامل به وجود آمد؟ ما سرنخهایی داریم اولین سوالی که ممکن است بپرسیم این است که آیا ارتباط در پستانداران غیرانسان بر نیمکره چپ غالب است؟
A PET imaging study in chimpanzees found that when they made a communicative gesture or an atypical novel sound while begging for food, the left inferior frontal gyrus, a region considered to be homologous to Broca’s area, was activated (Taglialatela et al., 2008). What is an atypical sound? First described in 1991 (Marshall et al., 1991), atypical sounds are produced only by some captive chimps. Three have been identified: a “raspberry,” an “extended grunt,” and a “kiss.” The sounds have been observed to be socially learned and selectively produced to gain the attention of an inattentive human (Hopkins, Taglialatela, et al., 2007).
یک مطالعه تصویربرداری PET در شامپانزهها نشان داد که هنگامیکه آنها یک حرکت ارتباطی یا صدای بدیع غیرعادی هنگام گدایی غذا انجام میدهند، شکنج پیشانی تحتانی چپ، ناحیهای که همولوگ با ناحیه بروکا در نظر گرفته میشود، فعال میشود (Taglialatela و همکاران، ۲۰۰۸). . صدای غیر معمول چیست؟ اولین بار در سال ۱۹۹۱ توصیف شد (مارشال و همکاران، ۱۹۹۱)، صداهای غیر معمول فقط توسط برخی شامپانزههای اسیر تولید میشوند. سه مورد شناسایی شده است: یک “تمشک”، “غرغر طولانی” و یک “بوسه”. مشاهده شده است که صداها از نظر اجتماعی آموخته میشوند و به طور انتخابی برای جلب توجه یک انسان بی توجه تولید میشوند (هاپکینز، تالیالاتلا، و همکاران، ۲۰۰۷).
The left-hemisphere dominance for communication may also be present in the chimpanzee. In humans, the left lateralization of speech is actually visible: The right side of the mouth opens first and wider. In contrast, the left side gears up first with emotional expressions. In two large colonies of captive chimps, the same thing was found: left-hemisphere dominance for the production of learned attention-getting sounds, and right-hemisphere dominance for the production of species-typical vocalizations (Losin et al., 2008; Wallez & Vauclair, 2011). These studies all suggest that the left hemisphere’s voluntary control of hand gestures (area F5) and vocalizations may have evolved into an integrative system. But the story is more complicated than this.
تسلط نیمکره چپ برای ارتباط ممکن است در شامپانزه نیز وجود داشته باشد. در انسان، سمت چپ گفتار در واقع قابل مشاهده است: سمت راست دهان ابتدا و بیشتر باز میشود. در مقابل، سمت چپ ابتدا با عبارات احساسی آماده میشود. در دو مستعمره بزرگ شامپانزههای اسیر، یک چیز مشابه یافت شد: تسلط بر نیمکره چپ برای تولید صداهای جلب توجه و تسلط نیمکره راست برای تولید صداهای معمولی گونهها (لوسین و همکاران، ۲۰۰۸؛ والز). و واکلر، ۲۰۱۱). همه این مطالعات نشان میدهد که کنترل ارادی نیمکره چپ حرکات دست (ناحیه F5) و صداها ممکن است به یک سیستم یکپارچه تبدیل شده باشد. اما داستان پیچیده تر از این است.
The advent of functional and structural brain imaging revolutionized the study of the organization not only of the human brain, but also of the brains of animals. These methods have enabled a comparative structural and functional neuroanatomy to be pursued, which has revealed a remarkable story about the evolution of the left- hemisphere perisylvian language system within primates.
ظهور تصویربرداری عملکردی و ساختاری مغز، تحولی در مطالعه سازماندهی نه تنها مغز انسان، بلکه در مورد مغز حیوانات نیز ایجاد کرد. این روشها امکان پیگیری یک نوروآناتومی ساختاری و عملکردی مقایسهای را فراهم کردهاند که داستان قابلتوجهی را در مورد تکامل سیستم زبان پریسیلوی نیمکره چپ در نخستیها آشکار کرده است.
FIGURE 11.30 Neuroanatomy of the human left-hemisphere perisylvian language system compared to chimpanzees and macaques.
DTI images (top) and network models (bottom). (a) Humans have robust interconnectivity of the inferior frontal cortex, inferior parietal cortex, and temporal cortex, especially lateral and inferior temporal cortex by massive projections of the arcuate fasciculus. (b-c) The white matter tracts of the chimpanzee and the macaque monkey show greatly reduced or absent projections into lateral and inferior temporal cortex. CS = central sulcus; IFS = inferior frontal sulcus; IPS = intraparietal sulcus; PrCS = precentral sulcus; STS = superior temporal sulcus.
شکل ۱۱.۳۰ نوروآناتومی سیستم زبانی نیمکره چپ انسان در مقایسه با شامپانزهها و ماکاکها.
تصاویر DTI (بالا) و مدلهای شبکه (پایین). (الف) انسانها با برجستگیهای عظیم فاسیکولوس کمانی، اتصال متقابل قوی قشر پیشانی تحتانی، قشر آهیانهای تحتانی و قشر تمپورال، به ویژه قشر تمپورال جانبی و تحتانی دارند. (ب-ج) مسیرهای ماده سفید شامپانزه و میمون ماکاک برجستگی بسیار کاهش یافته یا غایب در قشر تمپورال جانبی و تحتانی را نشان میدهد. CS = شیار مرکزی; IFS = شیار فرونتال تحتانی. IPS = شیار داخل آهیانهای; PrCS = شیار پیش مرکزی. STS = شیار گیجگاهی فوقانی.
In humans, the left perisylvian language cortex is defined by its extensive connectivity among key brain regions in the inferior frontal, inferior parietal, and temporal lobes.
در انسان، قشر زبان پریسیلوی چپ با اتصال گسترده آن در میان نواحی کلیدی مغز در لوبهای فرونتال، پاریتال تحتانی و گیجگاهی تعریف میشود.
As Wernicke had glimpsed in his hypothesis about connections between Wernicke’s area and Broca’s area, elaborate white matter pathways connect key nodes of the system. Today, though, we know the connectivity to be much richer than Wernicke ever guessed. Was this elaborate system of connections present in our ancestors, perhaps serving another function and later co-opted for human language? Studies of our nonhuman primate relatives tell us a fascinating tale.
همانطور که ورنیکه در فرضیه خود در مورد اتصالات بین ناحیه ورنیکه و ناحیه بروکا نگاهی اجمالی داشت، مسیرهای دقیق ماده سفید گرههای کلیدی سیستم را به هم متصل میکند. با این حال، امروز میدانیم که اتصال بسیار غنی تر از آن چیزی است که ورنیکه تا به حال حدس میزد. آیا این سیستم پیچیده از ارتباطات در اجداد ما وجود داشته است، شاید کارکرد دیگری داشته باشد و بعداً برای زبان بشری انتخاب شود؟ مطالعات انجام شده بر روی خویشاوندان نخستیهای غیرانسانی ما داستان جذابی را به ما میگویند.
James Rilling and his colleagues at Emory University, the Yerkes Primate Center, and Oxford University used modern DTI with MRI in humans, chimpanzees, and macaque monkeys (Rilling et al., 2008). They found a remarkable clue to the evolution of the left perisylvian language system. As we have seen, there are major dorsal and ventral projection pathways in humans that inter- connect the temporal lobe with parietal and inferior frontal cortex (Figure 11.30a). The large fiber tracts have a rich microstructure. These subprojections interconnect brain areas in a fashion that helps us to understand the complexity of human language and how damage to this system can result in a variety of language disorders (Fridriksson et al., 2018).
جیمز ریلینگ و همکارانش در دانشگاه اموری، مرکز پستانداران یرکس و دانشگاه آکسفورد از DTI مدرن با MRI در انسان، شامپانزه و میمون ماکاک استفاده کردند (ریلینگ و همکاران، ۲۰۰۸). آنها سرنخ قابل توجهی از تکامل سیستم زبان پریسیلوی چپ پیدا کردند. همانطور که دیدیم، مسیرهای برجسته پشتی و شکمیدر انسان وجود دارد که لوب گیجگاهی را با قشر فرونتال آهیانهای و تحتانی متصل میکند (شکل ۱۱.30a). لولههای فیبر بزرگ دارای ریزساختار غنی هستند. این طرحهای فرعی نواحی مغز را به شکلی به هم متصل میکنند که به ما کمک میکند تا پیچیدگی زبان انسان را درک کنیم و اینکه چگونه آسیب به این سیستم میتواند منجر به انواع اختلالات زبانی شود (فریدریکسون و همکاران، ۲۰۱۸).
In the chimpanzee and macaque monkey (Figure 11.30b, c), however, the projections among inferior frontal, parietal, and temporal lobes are greatly reduced, with major differences visible in how the system projects into the lateral and inferior temporal lobe. Indeed, the regions of the temporal lobe that we now know have rich representations of words, meanings, and concepts in humans correspond primarily to high-level extrastriate visual cortical areas in the macaque. These findings fit well with the idea that during human evolution, dramatic changes in connectivity and likely in the cortical areas themselves took place, supporting the rise of human language in all its rich and detailed complexity.
با این حال، در شامپانزه و میمون ماکاک (شکل ۱۱.30b، c)، برجستگیها در میان لوبهای فرونتال، آهیانهای و گیجگاهی تحتانی بسیار کاهش مییابد، با تفاوتهای عمده در نحوه بیرونآمدن سیستم به لوب تمپورال جانبی و تحتانی. در واقع، نواحی لوب گیجگاهی که ما اکنون میدانیم دارای بازنمایی غنی از کلمات، معانی و مفاهیم در انسان هستند، عمدتاً با نواحی قشری بینایی خارج از سطح بالا در ماکاک مطابقت دارند. این یافتهها به خوبی با این ایده مطابقت دارند که در طول تکامل انسان، تغییرات چشمگیری در اتصالات و احتمالاً در خود نواحی قشری رخ داده است که از ظهور زبان انسانی در تمام پیچیدگیهای غنی و دقیق آن پشتیبانی میکند.
TAKE-HOME MESSAGES
پیامهای اصلی
▪️Nonhuman primates’ vocalizations can carry meaning and show evidence of rudimentary syntax. In general, however, animal calls tend to be inflexible, associated with a specific emotional state, and linked to a specific stimulus.
▪️ آوای نخستیهای غیر انسانی میتواند معنی داشته باشد و شواهدی از نحو ابتدایی را نشان دهد. با این حال، به طور کلی، تماسهای حیوانی تمایل به انعطاف ناپذیری دارند، با یک حالت عاطفی خاص همراه هستند و به یک محرک خاص مرتبط هستند.
▪️ Some researchers suggest that human speech and language evolved from hand gestures, or a combination of hand gestures and facial movement.
▪️ برخی از محققان پیشنهاد میکنند که گفتار و زبان انسان از حرکات دست، یا ترکیبی از حرکات دست و حرکات صورت تکامل یافته است.
▪️The greatest evolutionary brain changes we know of involve the size and function of the left temporal cortex and, importantly, how this cortex is interconnected with inferior frontal and parietal cortex.
▪️ بزرگترین تغییرات تکاملی مغز که ما از آنها میشناسیم مربوط به اندازه و عملکرد قشر گیجگاهی چپ و مهمتر از همه، نحوه ارتباط این قشر با قشر فرونتال و آهیانهای تحتانی است.
Summary
خلاصه
Language is unique among mental functions in that only humans possess a true and elaborate language system. We have known for more than a century that regions around the Sylvian fissure of the dominant left hemisphere participate in language comprehension and production. Classical models, however, are insufficient for understanding the computations that support language, and they don’t fully explain disorders of language. Newer formulations based on detailed analysis of the effects of neurological lesions, supported by improvements in structural imaging, functional neuroimaging, human electrophysiology, and computational modeling, now provide some surprising modifications of older models.
زبان در میان کارکردهای ذهنی منحصر به فرد است زیرا فقط انسانها دارای یک سیستم زبانی درست و دقیق هستند. ما بیش از یک قرن است که میدانیم مناطق اطراف شکاف سیلوین نیمکره چپ غالب در درک و تولید زبان مشارکت دارند. با این حال، مدلهای کلاسیک برای درک محاسباتی که زبان را پشتیبانی میکنند، کافی نیستند و اختلالات زبان را به طور کامل توضیح نمیدهند. فرمولهای جدیدتر مبتنی بر تجزیه و تحلیل دقیق اثرات ضایعات عصبی، که با بهبود تصویربرداری ساختاری، تصویربرداری عصبی عملکردی، الکتروفیزیولوژی انسانی و مدلسازی محاسباتی پشتیبانی میشوند، اکنون برخی تغییرات شگفتانگیز را در مدلهای قدیمیتر ارائه میدهند.
What has emerged is the left perisylvian language system, which has elaborate white matter connections between inferior frontal cortex (including Broca’s area), inferior parietal cortex, and widespread regions of the temporal lobe (including Wernicke’s area). Over the course of evolution in primates, the size and complexity of the connections of the left hemisphere that make up the human left perisylvian language system have changed dramatically. Pathways and brain areas that are elaborately interconnected in humans are greatly reduced or absent in macaque monkeys and even chimpanzees. The human right hemisphere also possesses significant linguistic ability, but studies in patients, including split-brain patients, show these abilities to be limited. The human language system is complex, and much remains to be learned about how the biology of the brain enables the rich speech and language comprehension that characterize our daily lives.
آنچه پدیدار شده است سیستم زبان پریسیلویای چپ است که دارای اتصالات ماده سفید مفصلی بین قشر فرونتال تحتانی (شامل ناحیه بروکا)، قشر آهیانهای تحتانی و نواحی گسترده لوب تمپورال (از جمله ناحیه ورنیکه) است. در طول تکامل در پستانداران، اندازه و پیچیدگی اتصالات نیمکره چپ که سیستم زبان چپ پریسیلوی انسان را تشکیل میدهد، به طور چشمگیری تغییر کرده است. مسیرها و نواحی مغزی که به طور مفصل در انسان به هم مرتبط هستند در میمونهای ماکاک و حتی شامپانزهها بسیار کاهش یافته یا وجود ندارد. نیمکره راست انسان نیز دارای توانایی زبانی قابل توجهی است، اما مطالعات انجام شده در بیماران، از جمله بیماران تقسیم مغز، نشان میدهد که این تواناییها محدود است. سیستم زبانی انسان پیچیده است، و هنوز چیزهای زیادی در مورد اینکه چگونه زیست شناسی مغز درک گفتار و زبان غنی را که مشخصه زندگی روزمره ما است، قادر میسازد، آموخته شود.
Key Terms
اصطلاحات کلیدی
agrammatic aphasia (p. 481)
alexia (p. 494)
anomia (p. 478)
aphasia (p. 477)
apraxia (p. 478)
arcuate fasciculus (p. 481)
Broca’s aphasia (p. 478)
Broca’s area (p. 480)
conduction aphasia (p. 481)
dysarthria (p. 477)
lexical access (p. 483)
lexical integration (p. 483)
lexical selection (p. 483)
mental lexicon (p. 483)
morpheme (p. 483)
N400 response (p. 498)
orthographic form (p. 483)
P600 response (p. 500)
phoneme (p. 483)
phonological form (p. 483)
semantic paraphasia (p. 484)
Sylvian fissure (p. 477)
syntactic parsing (p. 498)
syntax (p. 481)
Wernicke’s aphasia (p. 481)
Wernicke’s area (p. 481)
Think About It
در مورد آن فکر کنید
۱. How might the mental lexicon be organized in the brain? Would we expect to find it localized in a particular region in cortex? If so, where, and what evidence supports this view?
۱. واژگان ذهنی چگونه ممکن است در مغز سازماندهی شود؟ آیا انتظار داریم که آن را در یک ناحیه خاص در قشر مغز پیدا کنیم؟ اگر چنین است، کجا و چه شواهدی این دیدگاه را تأیید میکند؟
۲. At what stage of input processing are the comprehension of spoken language and the comprehension of written language the same, and where must they be different? Are there any exceptions to this rule?
۲. درک زبان گفتاری و درک زبان نوشتاری در چه مرحله ای از پردازش ورودی یکسان هستند و در کجا باید متفاوت باشند؟ آیا استثنایی برای این قاعده وجود دارد؟
۳. Describe the route that an auditory speech signal might take in the cortex, from perceptual analysis to comprehension.
۳. مسیری را که سیگنال گفتار شنوایی ممکن است در قشر مغز طی کند، از تحلیل ادراکی تا درک را شرح دهید.
۴. What evidence exists for the role of the right hemi- sphere in language processing? If the right hemisphere has a role in language, what might that role be?
۴. چه شواهدی برای نقش نیمکره راست در پردازش زبان وجود دارد؟ اگر نیمکره راست نقشی در زبان دارد، آن نقش چه میتواند باشد؟
۵. Can knowledge of the world around you affect the way you process and understand words?
۵. آیا شناخت دنیای اطراف شما میتواند بر نحوه پردازش و درک کلمات تأثیر بگذارد؟
۶. Describe the anatomy and circuitry of the left perisylvian language system, and how it has changed over the course of primate evolution.
۶. تشریح آناتومی و مدار سیستم زبان پریسیلوی چپ، و چگونگی تغییر آن در طول تکامل نخستیها.
کلیک کنید تا Suggested Reading نمایش داده شود
Fridriksson, J., den Ouden, D. B., Hillis, A. E., Hickok, G., Rorden, C., Basilakos, A., et al. (2018). Anatomy of aphasia revisited. Brain, 141(3), 848-862. doi:10.1093 /brain/awx363 [Epub ahead of print]
Friederici, A. D. (2012). The cortical language circuit: From auditory perception to sentence comprehension. Trends in Cognitive Science, 16(5), 262-268.
Hagoort, P. (2013). MUC (Memory, Unification, Control) and beyond. Frontiers in Psychology, 4, 416.
Kaan, E., & Swaab, T. (2002). The brain circuitry of syntactic comprehension. Trends in Cognitive Sciences, 6,350-356.
Lau, E., Phillips, C., & Poeppel, D. (2008). A cortical network for semantics: (De)constructing the N400. Nature Reviews Neuroscience, 9(12), 920-933.
Levelt, W. J. M. (2001). Spoken word production: A theory of lexical access. Proceedings of the National Academy of Sciences, USA, 98, 13464-13471.
Poeppel, D., Emmorey, K., Hickok, G., & Pylkkänen, L. (2012). Towards a new neurobiology of language. Journal of Neuroscience, 32(41), 14125-14131.
Price, C. J. (2012). A review and synthesis of the first 20 years of PET and fMRI studies of heard speech, spoken language and reading. NeuroImage, 62, 816-847.
Rilling, J. K. (2014). Comparative primate neurobiology and the evolution of brain language systems. Current Opinion in Neurobiology, 28, 10-14. doi:10.1016 /j.conb.2014.04.002 [Epub, May 14]
»» فصل قبل: فصل هیجان
»» تمامی کتاب