علوم اعصاب شناختی

علوم اعصاب شناختی؛ زبان؛ مدل‌های عصبی تولید گفتار؛ تکامل زبان


دعای مطالعه [ نمایش ]

بِسْمِ الله الرَّحْمنِ الرَّحیمِ

اَللّهُمَّ اَخْرِجْنى مِنْ ظُلُماتِ الْوَهْمِ

خدایا مرا بیرون آور از تاریکى‏‌هاى‏ وهم،

وَ اَکْرِمْنى بِنُورِ الْفَهْمِ

و به نور فهم گرامى ‏ام بدار،

اَللّهُمَّ افْتَحْ عَلَیْنا اَبْوابَ رَحْمَتِکَ

خدایا درهاى رحمتت را به روى ما بگشا،

وَانْشُرْ عَلَیْنا خَزائِنَ عُلُومِکَ بِرَحْمَتِکَ یا اَرْحَمَ الرّاحِمینَ

و خزانه‏‌هاى علومت را بر ما باز کن به امید رحمتت اى مهربان‌‏ترین مهربانان.


» Cognitive Neuroscience: The Biology of the Mind
»» فصل ۱۱: فصل زبان؛ قسمت چهارم: قسمت آخر
»» CHAPTER 11: Language
 در حال ویرایش

۱۱.۶ Neural Models of Speech Production

۱۱.۶ مدل‌های عصبی تولید گفتار

So far, we have focused mainly on language comprehension; we now turn our attention to language production. A seemingly trivial but nonetheless important difference between comprehension and production is our starting point. Whereas language comprehension starts with spoken or written input that has to be transformed into a concept, language production starts with a concept for which we have to find the appropriate words.

تا کنون، ما عمدتاً بر درک زبان تمرکز کرده‌ایم. اکنون توجه خود را به تولید زبان معطوف کرده ایم. یک تفاوت به ظاهر پیش پا افتاده اما با این وجود مهم بین درک و تولید نقطه شروع ما است. در حالی که درک زبان با ورودی گفتاری یا نوشتاری شروع می‌شود که باید به یک مفهوم تبدیل شود، تولید زبان با مفهومی‌شروع می‌شود که باید کلمات مناسب را برای آن پیدا کنیم.

Speech production has traditionally been studied at two different levels of analysis. Motor control scientists, who are interested in kinematic forces, movement trajectories, and feedback control of orofacial muscles, tend to focus on lower-level articulatory control processes, whereas psycholinguists work at a more abstract level of phonemes, morphemes, and phrases. Not until recently have the two approaches begun to be integrated to form a neuroanatomically grounded model of speech production with hierarchical state feedback controls (Hickok, 2012).

تولید گفتار به طور سنتی در دو سطح مختلف تحلیل مورد مطالعه قرار گرفته است. دانشمندان کنترل حرکتی که به نیروهای حرکتی، مسیر حرکت و کنترل بازخورد عضلات دهانی علاقه مند هستند، تمایل دارند بر فرآیندهای کنترل مفصلی سطح پایین تمرکز کنند، در حالی که روانشناسان در سطح انتزاعی تر از واج‌ها، مورفم‌ها و عبارات کار می‌کنند. تا همین اواخر، این دو رویکرد برای تشکیل یک مدل مبتنی بر عصب آناتومیکی از تولید گفتار با کنترل‌های بازخورد وضعیت سلسله مراتبی ادغام شدند (هیکوک، ۲۰۱۲).

Motor Control and Language Production

کنترل موتور و تولید زبان

In Chapter 8 we learned that motor control involves creating internal forward models, which enable the motor circuit to make predictions about the position and trajectory of a movement and its sensory consequences, and sensory feedback, which measures the actual sensory consequences of an action. Internal forward models provide online control of movement, as the effects of a movement command can be assessed and possibly adjusted on the fly before sensory feedback is given. Meanwhile, sensory feedback has three functions. It enables the circuit to learn the relationship between a motor command and the sensory result; if persistent mismatches occur between the predicted and measured states, it enables updating of the internal model; and it enables the detection of and correction for sudden perturbations.

در فصل ۸ آموختیم که کنترل موتور شامل ایجاد مدل‌های رو به جلو داخلی است که مدار موتور را قادر می‌سازد تا در مورد موقعیت و مسیر حرکت و پیامدهای حسی آن پیش‌بینی کند و بازخورد حسی که پیامدهای حسی واقعی یک عمل را اندازه‌گیری می‌کند. مدل‌های رو به جلو داخلی، کنترل آنلاین حرکت را فراهم می‌کنند، زیرا اثرات یک فرمان حرکتی را می‌توان ارزیابی کرد و احتمالاً قبل از ارائه بازخورد حسی، آن را تنظیم کرد. در این میان بازخورد حسی سه کارکرد دارد. مدار را قادر می‌سازد تا رابطه بین فرمان موتور و نتیجه حسی را بیاموزد. اگر عدم تطابق مداوم بین حالت‌های پیش بینی شده و اندازه گیری شده رخ دهد، به روز رسانی مدل داخلی را امکان پذیر می‌کند. و تشخیص و تصحیح اغتشاشات ناگهانی را امکان پذیر می‌کند.

Feedback control has been documented in the production of speech. Researchers have altered sensory feedback and found that people adjust their speech to correct for sensory feedback “errors” (Houde & Jordan, 1998). To identify the neural circuit underlying auditory feedback control of speech movements, Jason Tourville and his colleagues (2008) performed an experiment that combined fMRI with computational modeling. They measured the neural responses while participants spoke single-syllable words under two conditions: normal auditory feedback and auditory feedback where the frequency of their speech was unexpectedly shifted. The participants responded by shifting their vocal output in a direction opposite to the shift. Acoustic measurements showed compensation to the shift within approximately 135 ms of onset.

کنترل بازخورد در تولید گفتار مستند شده است. محققان بازخورد حسی را تغییر دادند و دریافتند که افراد گفتار خود را برای تصحیح “خطاهای” بازخورد حسی تنظیم می‌کنند (Houde & Jordan, 1998). برای شناسایی مدار عصبی زیربنایی کنترل بازخورد شنیداری حرکات گفتار، جیسون تورویل و همکارانش (۲۰۰۸) آزمایشی را انجام دادند که fMRI را با مدل‌سازی محاسباتی ترکیب کرد. آنها پاسخ‌های عصبی را اندازه‌گیری کردند در حالی که شرکت‌کنندگان کلمات تک هجا را تحت دو شرایط صحبت می‌کردند: بازخورد شنیداری عادی و بازخورد شنیداری که در آن فرکانس گفتار آنها به طور غیرمنتظره‌ای تغییر می‌کرد. شرکت کنندگان با تغییر خروجی صدای خود در جهت مخالف تغییر پاسخ دادند. اندازه‌گیری‌های آکوستیک در حدود ۱۳۵ میلی‌ثانیه از شروع، تغییر را جبران کرد.

During shifted feedback, increased activity was seen in bilateral superior temporal cortex, indicative of neurons coding mismatches between expected and actual auditory signals. Increased activity was also seen in the right prefrontal and motor cortex. Computational modeling was used to assess changes in connectivity between regions during normal feedback versus shifted feedback. The results revealed that during shifted speech, bilateral auditory cortex had an increased influence on right frontal areas. This influence indicated that the auditory feedback control of speech is mediated by projections from auditory error cells in posterior superior temporal cortex that travel to motor correction cells in right frontal cortex.

در طی بازخورد تغییر یافته، افزایش فعالیت در قشر گیجگاهی فوقانی دو طرفه مشاهده شد که نشان دهنده عدم تطابق نورون‌ها بین سیگنال‌های شنیداری مورد انتظار و واقعی است. افزایش فعالیت در قشر پره‌فرونتال و حرکتی سمت راست نیز دیده شد. مدل سازی محاسباتی برای ارزیابی تغییرات در اتصال بین مناطق در طول بازخورد عادی در مقابل بازخورد تغییر یافته استفاده شد. نتایج نشان داد که در حین گفتار شیفتی، قشر شنوایی دو طرفه تأثیر بیشتری بر نواحی پیشانی راست دارد. این تأثیر نشان داد که کنترل بازخورد شنیداری گفتار با پیش‌بینی‌های سلول‌های خطای شنوایی در قشر گیجگاهی فوقانی خلفی که به سلول‌های اصلاح حرکتی در قشر پیشانی راست حرکت می‌کنند، واسطه می‌شود.

We learned in Chapter 6 that evidence from vision research suggests that the feedback control for visuomotor pathways is hierarchically organized. The same notion for the organization of feedback control of speech production has been proposed. Since this hierarchical organization overlaps with some aspects of the hierarchical linguistic models of speech production, we will look at these next.

ما در فصل ۶ آموختیم که شواهد حاصل از تحقیقات بینایی نشان می‌دهد که کنترل بازخورد برای مسیرهای دیداری حرکتی به صورت سلسله مراتبی سازماندهی شده است. همین مفهوم برای سازماندهی کنترل بازخورد تولید گفتار پیشنهاد شده است. از آنجایی که این سازماندهی سلسله مراتبی با برخی از جنبه‌های مدل‌های زبانی سلسله مراتبی تولید گفتار همپوشانی دارد، در ادامه به این موارد خواهیم پرداخت.

Psycholinguistic Models of Speech Production

مدل‌های روان‌زبانی تولید گفتار

An influential cognitive model for language production was proposed by Willem Levelt (1989) of the Max Planck Institute for Psycholinguistics in the Netherlands (Figure 11.27). The first step in speech production is to prepare the message. Levelt maintains that there are two crucial aspects to message preparation: macroplanning, in which the speaker determines what she wants to express, and microplanning, in which she plans how to express it.

یک مدل شناختی تاثیرگذار برای تولید زبان توسط ویلم لولت (۱۹۸۹) از موسسه ماکس پلانک برای روانشناسی زبان در هلند پیشنهاد شد (شکل ۱۱.۲۷). اولین قدم در تولید گفتار، آماده سازی پیام است. Levelt معتقد است که دو جنبه حیاتی برای آماده سازی پیام وجود دارد: برنامه ریزی کلان، که در آن گوینده تعیین می‌کند که چه چیزی را می‌خواهد بیان کند، و برنامه ریزی خرد، که در آن برنامه ریزی می‌کند که چگونه آن را بیان کند.

The intention of the communication (the what) is represented by goals and subgoals, expressed in an order that best serves the communicative plan. Microplanning how the information is expressed involves adopting a perspective. If we describe a scene in which a house and a park are situated side by side, we must decide whether to say, “The park is next to the house” or “The house is next to the park.” The microplan determines word choice and the grammatical roles that the words play (e.g., subject and object).

هدف ارتباط (چیزی) با اهداف و اهداف فرعی نشان داده می‌شود که به ترتیبی بیان می‌شود که به بهترین وجه در خدمت برنامه ارتباطی باشد. برنامه ریزی خرد نحوه بیان اطلاعات شامل اتخاذ یک دیدگاه است. اگر صحنه ای را توصیف کنیم که در آن یک خانه و یک پارک در کنار هم قرار گرفته اند، باید تصمیم بگیریم که بگوییم “پارک کنار خانه است” یا “خانه کنار پارک است”. ریزپلان انتخاب کلمه و نقش‌های دستوری کلمات (به عنوان مثال، موضوع و مفعول) را تعیین می‌کند.

شکل 11.27 طرح کلی نظریه تولید گفتار ویلم لولت

FIGURE 11.27 Outline of Willem Levelt’s theory of speech production.
The processing components in language production are displayed schematically. Word production proceeds through stages of conceptual preparation, lexical selection, morphological and phonological encoding, phonetic encoding, and articulation. Speakers monitor their own speech by making use of their comprehension system.

شکل ۱۱.۲۷ طرح کلی نظریه تولید گفتار ویلم لولت.
اجزای پردازش در تولید زبان به صورت شماتیک نمایش داده می‌شوند. تولید کلمه از طریق مراحل آماده سازی مفهومی، انتخاب واژگانی، رمزگذاری صرفی و واجی، رمزگذاری آوایی و بیان پیش می‌رود. گویندگان با استفاده از سیستم درک مطلب خود بر گفتار خود نظارت می‌کنند.

The output of planning is a conceptual message that constitutes the input for the hypothetical processing component, the formulator, which puts the message in a grammatically and phonologically correct form. During grammatical encoding, a message’s syntactic representation is computed, including information such as “is subject of,” “is object of,” the grammatically correct word order, and so on. The lowest-level syntactic elements, known as lemmas, specify a word’s syntactic properties (e.g., whether the word is a noun or a verb, gender information, and other grammatical features), its semantic features, and the conceptual conditions where it is appropriate to use a certain word. These types of information in the mental lexicon are organized in a network that links lemmas by meaning.

خروجی برنامه ریزی یک پیام مفهومی‌است که ورودی جزء پردازش فرضی، فرمول ساز را تشکیل می‌دهد که پیام را از نظر دستوری و واج شناختی صحیح قرار می‌دهد. در طول رمزگذاری دستوری، نمایش نحوی یک پیام، شامل اطلاعاتی مانند «موضوع است»، «مبنای است»، ترتیب کلمات از نظر گرامری صحیح و غیره محاسبه می‌شود. عناصر نحوی پایین‌ترین سطح، که به عنوان لم شناخته می‌شوند، ویژگی‌های نحوی یک کلمه (به عنوان مثال، اسم یا فعل بودن کلمه، اطلاعات جنسیت و سایر ویژگی‌های دستوری)، ویژگی‌های معنایی آن، و شرایط مفهومی‌آن را مشخص می‌کنند. برای استفاده از یک کلمه خاص این نوع اطلاعات در واژگان ذهنی در شبکه‌ای سازماندهی شده‌اند که لم‌ها را بر اساس معنا به هم پیوند می‌دهد.

Levelt’s model predicts the following result when someone is presented with a picture of a flock of goats and is asked to name the subject of the picture. First the concept that represents a goat is activated, but concepts related to the meaning of goat are also activated-for example, sheep, cheese, farm. Activated concepts, in turn, activate representations in the mental lexicon, starting with “nodes” at the lemma level to access syntactic information such as word class (in our example, goat is a noun, not a verb). At this point, lexical selection occurs when the syntactic properties of the word appropriate to the presented picture must be retrieved. The selected information (in our example, goat) activates the word form.

مدل Levelt نتیجه زیر را زمانی پیش‌بینی می‌کند که تصویری از یک گله بز به کسی ارائه شود و از او خواسته شود موضوع تصویر را نام ببرد. ابتدا مفهومی‌که نشان دهنده بز است فعال می‌شود، اما مفاهیم مربوط به معنای بز نیز فعال می‌شوند – مثلاً گوسفند، پنیر، مزرعه. مفاهیم فعال، به نوبه خود، بازنمایی‌ها را در فرهنگ لغت ذهنی فعال می‌کنند و با “گره‌ها” در سطح لم شروع می‌شوند تا به اطلاعات نحوی مانند کلاس کلمه دسترسی پیدا کنند (در مثال ما، goat یک اسم است، نه یک فعل). در این مرحله، انتخاب واژگانی زمانی اتفاق می‌افتد که ویژگی‌های نحوی کلمه متناسب با تصویر ارائه شده باید بازیابی شود. اطلاعات انتخاب شده (در مثال ما، بز) فرم کلمه را فعال می‌کند.

Next the word form undergoes morphological encoding when the pluralizing morpheme “s” is added: goats. The modified word form contains both phonological information and metrical information, which is information about the number of syllables in the word and the stress pattern (in our example, goats consists of one syllable that is stressed). The process of phonological encoding ensures that the phonological information is mapped onto the metrical information.

در مرحله بعد، زمانی که تکواژ “s” جمع کننده اضافه می‌شود: بزها، شکل کلمه تحت رمزگذاری صرفی قرار می‌گیرد. شکل کلمه اصلاح شده شامل اطلاعات واجی و اطلاعات متریک است که اطلاعاتی در مورد تعداد هجاهای کلمه و الگوی استرس است (در مثال ما، goats از یک هجا تشکیل شده است که تاکید دارد). فرآیند رمزگذاری واجی تضمین می‌کند که اطلاعات واجی بر روی اطلاعات متریک نگاشت می‌شود.

In contrast to the modular view in Levelt’s model, interactive models such as the one proposed by Gary Dell at the University of Illinois (1986) suggest that phonological activation begins shortly after the semantic and syntactic information of words has been activated. Unlike modular models, interactive models permit feedback from the phonological activation to the semantic and syntactic properties of the word, there- by enhancing the activation of certain syntactic and semantic information.

برخلاف دیدگاه مدولار در مدل Levelt، مدل‌های تعاملی مانند آنچه توسط گری دل در دانشگاه ایلینویز (۱۹۸۶) پیشنهاد شد، نشان می‌دهد که فعال‌سازی واج‌شناختی مدت کوتاهی پس از فعال شدن اطلاعات معنایی و نحوی کلمات آغاز می‌شود. برخلاف مدل‌های مدولار، مدل‌های تعاملی امکان بازخورد از فعال‌سازی واج‌شناختی به ویژگی‌های معنایی و نحوی کلمه را فراهم می‌کنند و از این طریق فعال‌سازی برخی اطلاعات نحوی و معنایی را افزایش می‌دهند.

Neural Substrates of Language Production

بسترهای عصبی تولید زبان

Ned Sahin and his colleagues (2009) had the rare opportunity to shed some light on this question of how different forms of linguistic information are combined during speech production. They recorded local field potentials from multiple electrodes implanted in and around Bro- ca’s area during presurgical screening of three epilepsy patients. To investigate word production in the brain, the patients were engaged in a task involving three conditions that distinguished lexical, grammatical, and phonological linguistic processes.

ند شاهین و همکارانش (۲۰۰۹) فرصت نادری را برای روشن کردن این سوال داشتند که چگونه اشکال مختلف اطلاعات زبانی در طول تولید گفتار ترکیب می‌شوند. آنها پتانسیل میدانی موضعی را از چندین الکترود کاشته شده در ناحیه بروکا و اطراف آن در طول غربالگری قبل از جراحی سه بیمار صرعی ثبت کردند. برای بررسی تولید کلمه در مغز، بیماران درگیر یک کار شامل سه شرط بودند که فرآیندهای زبانی واژگانی، دستوری و واجی را متمایز می‌کرد.

Most of the electrodes in Broca’s area yielded strong responses correlated with distinct linguistic processing stages. The first wave recorded by the cortical electrodes occurred at about 200 ms and appeared to reflect lexical identification. The second wave occurred at about 320 ms and was modulated by inflectional demands. It was not, however, modulated by phonological programming. This was seen in the third wave, which appeared at about 450 ms and reflected phonological encoding. In naming have shown that they involve the SMA, the opercular tasks, speech typically occurs at 600 ms.

بسیاری از الکترودهای موجود در ناحیه بروکا پاسخ‌های قوی مرتبط با مراحل پردازش زبانی متمایز از خود نشان دادند. اولین موج ثبت شده توسط الکترودهای قشر مغز در حدود ۲۰۰ میلی ثانیه رخ داد و به نظر می‌رسید که منعکس کننده شناسایی واژگانی باشد. موج دوم در حدود ۳۲۰ میلی‌ثانیه رخ داد و توسط تقاضاهای انحرافی تعدیل شد. با این حال، توسط برنامه‌نویسی واج‌شناختی تعدیل نشد. این در موج سوم مشاهده شد که در حدود ۴۵۰ میلی ثانیه ظاهر شد و رمزگذاری واجی را منعکس کرد. در نامگذاری نشان داده شده است که آنها شامل SMA، وظایف opercular، گفتار معمولا در ۶۰۰ میلی ثانیه رخ می‌دهد.

Sahin and his coworkers could also see that motor neuron commands occur 50 to 100 ms before speech, putting them just after the phonological wave. These apparent processing steps were separated not only temporally, but also spatially by a few millimeters (below the resolution of standard fMRI or MEG), and all were located in Broca’s area. These findings provide support for serial processing initially during speech production. Inflectional processing did not occur before the word was identified, and phonological processing did not occur until inflected phonemes were selected. The results are also consistent with the idea that Broca’s area has distinct circuits that process lexical, grammatical, and phonological information.

شاهین و همکارانش همچنین می‌توانستند ببینند که دستورات نورون حرکتی ۵۰ تا ۱۰۰ میلی‌ثانیه قبل از گفتار اتفاق می‌افتد، و آنها را درست بعد از موج واجی قرار می‌دهند. این مراحل پردازش ظاهری نه تنها از نظر زمانی، بلکه از نظر مکانی نیز با چند میلی متر (زیر رزولوشن استاندارد fMRI یا MEG) از هم جدا شدند و همه در ناحیه بروکا قرار داشتند. این یافته‌ها از پردازش سریال در ابتدا در طول تولید گفتار پشتیبانی می‌کند. پردازش عطف قبل از شناسایی کلمه اتفاق نیفتاد و پردازش واج شناختی تا زمانی که واج‌های عطفی انتخاب نشدند اتفاق نیفتاد. نتایج همچنین با این ایده که ناحیه بروکا دارای مدارهای مجزایی است که اطلاعات واژگانی، دستوری و واجی را پردازش می‌کند، سازگار است.

Imaging studies of the brain during picture naming and word generation found activation in the inferior temporal regions of the left hemisphere and in the left frontal operculum (Broca’s area). The activation in the frontal operculum might be specific to phonological encoding in speech production. The articulation of words likely involves the posterior parts of Broca’s area (BA44), but studies have also shown bilateral activation of motor cortex, the supplementary motor area (SMA), and the insula. PET and fMRI studies of the motor aspects of speech have shown that they involve the SMA, the opercular parts of the precentral gyrus, the posterior parts of the inferior frontal gyrus (Broca’s area), the insula, the mouth region of the primary sensorimotor cortex, the basal ganglia, the thalamus, and the cerebellum (reviewed in Ack- ermann & Riecker, 2010). It is clear that a widespread network of brain regions, predominantly in the left hemisphere in most people, is involved in producing speech.

مطالعات تصویربرداری از مغز در طی نامگذاری تصویر و تولید کلمه، فعال شدن را در نواحی زمانی تحتانی نیمکره چپ و در اپرکولوم پیشانی چپ (ناحیه بروکا) نشان داد. فعال شدن در اپرکولوم پیشانی ممکن است مختص رمزگذاری واجی در تولید گفتار باشد. بیان کلمات احتمالاً شامل قسمت‌های خلفی ناحیه بروکا (BA44) می‌شود، اما مطالعات همچنین فعال شدن دو طرفه قشر حرکتی، ناحیه حرکتی تکمیلی (SMA) و اینسولا را نشان داده است. مطالعات PET و fMRI روی جنبه‌های حرکتی گفتار نشان داده‌اند که آنها SMA، قسمت‌های شکنج پیش مرکزی، قسمت‌های خلفی شکنج فرونتال تحتانی (ناحیه بروکا)، اینسولا، ناحیه دهان قشر حسی حرکتی اولیه را شامل می‌شوند. عقده‌های قاعده ای، تالاموس و مخچه (در Ackermann & ریکر، ۲۰۱۰). واضح است که شبکه گسترده ای از مناطق مغز، عمدتاً در نیمکره چپ در اکثر افراد، در تولید گفتار نقش دارند.

One model that begins to integrate current knowledge of both motor control and psycholinguistics is the hierarchical state feedback control (HSFC) model proposed by Gregory Hickok from UC Irvine (2012; Figure 11.28). As in psycholinguistic models, the input to the HSFC model begins with activation of a conceptual representation that in turn excites a corresponding word representation.

یکی از مدل‌هایی که شروع به ادغام دانش فعلی از کنترل حرکتی و روان‌زبانی می‌کند، مدل کنترل بازخورد وضعیت سلسله مراتبی (HSFC) است که توسط گرگوری هیکوک از UC Irvine (2012؛ شکل ۱۱.۲۸) پیشنهاد شده است. همانند مدل‌های روان‌زبانی، ورودی مدل HSFC با فعال‌سازی یک بازنمایی مفهومی‌آغاز می‌شود که به نوبه خود بازنمایی کلمه مربوطه را تحریک می‌کند.

At this point, parallel processing begins in the sensory and motor systems associated with two levels of hierarchical control. The higher level codes speech information at the syllable level (i.e., vocal-tract opening and closing cycles). It contains a sensorimotor loop with sensory targets in auditory cortex and motor programs coded in BA44 (in Broca’s area), BA6, and area Spt, a region involved with sensorimotor integration in the left planum temporale (see Chapter 4) located in the posterior Sylvian fissure. The lower level codes speech information at the level of articulatory features that roughly correspond to phonemes and involve a sensorimotor loop that includes sensory targets coded primarily in somatosensory cortex, motor programs coded in primary motor cortex (MI), and a cerebellar circuit mediating the two. Though ac- knowledging that this model is an oversimplification, Hickok suggests that attempting to integrate motor control approaches and psycholinguistics will produce testable hypotheses and further our understanding of speech production.

در این مرحله، پردازش موازی در سیستم‌های حسی و حرکتی مرتبط با دو سطح کنترل سلسله مراتبی آغاز می‌شود. سطح بالاتر اطلاعات گفتار را در سطح هجا رمزگذاری می‌کند (یعنی چرخه‌های باز و بسته شدن دستگاه صوتی). این شامل یک حلقه حسی حرکتی با اهداف حسی در قشر شنوایی و برنامه‌های حرکتی است که در BA44 (در ناحیه بروکا)، BA6 و ناحیه Spt، منطقه‌ای درگیر با یکپارچگی حسی حرکتی در پلانوم تمپورال چپ (به فصل ۴) واقع در سیلوین خلفی کدگذاری شده‌اند. شکاف سطح پایین‌تر اطلاعات گفتار را در سطح ویژگی‌های مفصلی رمزگذاری می‌کند که تقریباً با واج‌ها مطابقت دارد و شامل یک حلقه حسی حرکتی است که شامل اهداف حسی کدگذاری شده در قشر حسی جسمی، برنامه‌های حرکتی کدگذاری شده در قشر حرکتی اولیه (MI) و یک مدار مخچه‌ای که میانجی این دو است. . اگرچه هیکوک با اذعان به اینکه این مدل ساده‌سازی بیش از حد است، پیشنهاد می‌کند که تلاش برای ادغام رویکردهای کنترل حرکتی و روان‌زبان‌شناسی، فرضیه‌های قابل آزمایشی را ایجاد می‌کند و درک ما از تولید گفتار را بیشتر می‌کند.

شکل 11.28 مدل کنترل بازخورد حالت سلسله مراتبی

FIGURE 11.28 The hierarchical state feedback control model.
Input to the HSFC model begins with the activation of a conceptual representation that in turn excites a corresponding word (lemma) representation, just as in linguistic models. Unlike the situation in some psycholinguistic models, the phonological level is split into a motor and a sensory phonological system. The word level projects in parallel to sensory (right) and motor (left) sides of two hierarchical levels of feedback control, each with its own internal and external sensory feedback loops. aSMG = anterior supramarginal gyrus; M1 = primary motor cortex; S1 = primary somatosensory cortex; Spt = sensorimotor integration region of the left planum temporale; STG = superior temporal gyrus; STS = superior temporal sulcus; vBA6 = ventral Brodmann area 6.

شکل ۱۱.۲۸ مدل کنترل بازخورد حالت سلسله مراتبی.
ورودی مدل HSFC با فعال سازی یک نمایش مفهومی‌آغاز می‌شود که به نوبه خود یک نمایش کلمه (لما) متناظر را تحریک می‌کند، درست مانند مدل‌های زبانی. برخلاف وضعیت برخی از مدل‌های روان‌زبانی، سطح واج‌شناختی به یک سیستم واج‌شناختی حرکتی و حسی تقسیم می‌شود. سطح کلمه به موازات دو طرف حسی (راست) و حرکتی (چپ) دو سطح سلسله مراتبی کنترل بازخورد، هر یک دارای حلقه‌های بازخورد حسی داخلی و خارجی خاص خود است. aSMG = شکنج فوق حاشیه قدامی. M1 = قشر حرکتی اولیه. S1 = قشر حسی جسمی‌اولیه. Spt = ناحیه ادغام حسی حرکتی پلانوم تمپورال چپ. STG = شکنج گیجگاهی برتر. STS = شیار گیجگاهی برتر. vBA6 = ناحیه برادمن شکمی‌۶.

TAKE-HOME MESSAGES

پیام‌های اصلی

▪️ Speech production involves the use of orofacial muscles that are controlled by processes using internal forward models and sensory feedback.

▪️ تولید گفتار شامل استفاده از ماهیچه‌های دهانی است که توسط فرآیندهایی با استفاده از مدل‌های داخلی رو به جلو و بازخورد حسی کنترل می‌شوند.

▪️Models of language production must account for the processes of selecting the information to be contained in the message; retrieving words from the lexicon; planning sentences and encoding grammar using semantic and syntactic properties of the word; using morphological and phonological properties for syllabification and prosody; and preparing articulatory gestures for each syllable.

▪️ مدل‌های تولید زبان باید برای فرآیندهای انتخاب اطلاعاتی که باید در پیام موجود باشد را در نظر بگیرند. بازیابی کلمات از فرهنگ لغت. برنامه ریزی جملات و رمزگذاری دستور زبان با استفاده از ویژگی‌های معنایی و نحوی کلمه. استفاده از خواص صرفی و واجی برای هجا و عروض. و برای هر هجا حرکات مفصلی آماده می‌کند.

▪️ Each stage in Levelt’s model for language production occurs serially, and its output representation is used for input to the next stage. The model avoids feedback, loops, parallel processing, and cascades. The early stages of this model fit well with the findings of ERPs recorded intracranially.

▪️ هر مرحله در مدل Levelt برای تولید زبان به صورت سریالی رخ می‌دهد و نمایش خروجی آن برای ورودی به مرحله بعدی استفاده می‌شود. این مدل از بازخورد، حلقه‌ها، پردازش موازی و آبشار اجتناب می‌کند. مراحل اولیه این مدل به خوبی با یافته‌های ERP ثبت شده داخل جمجمه مطابقت دارد.

▪️ Hickok’s model of speech production involves parallel processing and two levels of hierarchical control.

▪️ مدل هیکوک از تولید گفتار شامل پردازش موازی و دو سطح کنترل سلسله مراتبی است.

۱۱.۷ Evolution of Language

۱۱.۷ تکامل زبان

Young children acquire language easily and quickly when exposed to it. This behavior led Charles Darwin to suggest in his book The Descent of Man, and Selection in Relation to Sex that humans have a biological predisposition toward language. The evolutionary origins of language remain unknown, though there is no shortage of theories. Indeed, Noam Chomsky took the view in 1975 that language was so different from the communication systems used by other animals that it could not be explained in terms of natural selection. Steven Pinker and Paul Bloom suggested in an article in 1990 that only natural selection could have produced the complex structures of language. There are divergent views as to when language emerged, whether the question trying to be explained is an underlying cognitive mechanism specific to language or a cooperative social behavior, and what crucial evolutionary problems had to be solved before language could emerge (Sterelny, 2012).

کودکان خردسال وقتی در معرض زبان قرار می‌گیرند به راحتی و به سرعت زبان را فرا می‌گیرند. این رفتار چارلز داروین را بر آن داشت تا در کتاب خود با عنوان «تبار انسان و انتخاب در رابطه با جنسیت» پیشنهاد کند که انسان‌ها استعداد بیولوژیکی نسبت به زبان دارند. منشاء تکاملی زبان ناشناخته باقی مانده است، اگرچه نظریات کمی‌وجود ندارد. در واقع، نوام چامسکی در سال ۱۹۷۵ این نظر را داشت که زبان آنقدر متفاوت از سیستم‌های ارتباطی مورد استفاده سایر حیوانات است که نمی‌توان آن را از نظر انتخاب طبیعی توضیح داد. استیون پینکر و پل بلوم در مقاله ای در سال ۱۹۹۰ پیشنهاد کردند که فقط انتخاب طبیعی می‌تواند ساختارهای پیچیده زبان را ایجاد کند. دیدگاه‌های متفاوتی درباره زمان ظهور زبان وجود دارد، این که آیا سؤالی که می‌خواهد توضیح داده شود یک مکانیسم شناختی زیربنایی خاص زبان است یا یک رفتار اجتماعی مشارکتی، و اینکه چه مشکلات اساسی تکاملی باید حل شود تا زبان بتواند ظهور کند (استرنی، ۲۰۱۲).

Shared Intentionality

هدفمندی مشترک

Communication is the transfer of information by speech, signals, writing, or behavior. The function of human language is to influence the behavior of others by changing what they know, think, believe, or desire (Grice, 1957), and we tend to think communication is intentional. When we are looking for the origins of language, how- ever, we cannot assume that communication sprang up in this form. Animal communication is more generally defined as any behavior by one animal that affects the current or future behavior of another animal, intentional or otherwise.

ارتباط انتقال اطلاعات از طریق گفتار، سیگنال، نوشتار یا رفتار است. کارکرد زبان انسان این است که بر رفتار دیگران با تغییر آنچه می‌دانند، فکر می‌کنند، اعتقاد دارند یا می‌خواهند، تأثیر بگذارد (گریس، ۱۹۵۷)، و ما تمایل داریم که ارتباط را عمدی بدانیم. با این حال، وقتی ما به دنبال منشأ زبان هستیم، نمی‌توانیم فرض کنیم که ارتباطات به این شکل شکل گرفته است. ارتباط حیوانی به طور کلی به عنوان هر رفتاری از سوی یک حیوان که بر رفتار فعلی یا آینده حیوان دیگر تأثیر می‌گذارد، عمدی یا غیر آن، تعریف می‌شود.

A well-known series of studies in animal communication was conducted by Robert Seyfarth and Dorothy Cheney on vervet monkeys in Kenya (Seyfarth et al., 1980). These monkeys have different alarm calls for snakes, leopards, and predatory birds. Monkeys that hear an alarm call for a snake will stand up and look down. But with a leopard call, they scamper into the trees; and with a bird call, they run from the exposed ends of the branches and huddle by the trunk. Formerly, it was thought that animal vocalizations were exclusively emotional—and indeed, they most likely originated as such. A vervet, however, does not always make an alarm call, seldom calls when it is alone, and is more likely to call when it is with kin than with non-kin. The calls are not an automatic emotional reaction.

یک سری مطالعات معروف در ارتباط با حیوانات توسط رابرت سیفارت و دوروتی چنی بر روی میمون‌های وروت در کنیا انجام شد (سیفارت و همکاران، ۱۹۸۰). این میمون‌ها زنگ‌های هشدار متفاوتی برای مارها، پلنگ‌ها و پرندگان شکارچی دارند. میمون‌هایی که صدای زنگ مار را می‌شنوند، بلند می‌شوند و به پایین نگاه می‌کنند. اما با صدای پلنگ، آنها به درختان می‌ریزند. و با صدای پرنده از انتهای باز شاخه‌ها می‌دوند و کنار تنه جمع می‌شوند. قبلاً تصور می‌شد که آوازهای حیوانات منحصراً عاطفی هستند – و در واقع، به احتمال زیاد به همین دلیل سرچشمه می‌گیرند. با این حال، یک Vervet همیشه زنگ خطر نمی‌زند، به ندرت زمانی که تنها است زنگ می‌زند، و زمانی که با خویشاوندانش باشد بیشتر از غیر خویشاوندان تماس می‌گیرد. تماس‌ها یک واکنش احساسی خودکار نیستند.

If a call is to provide information, it has to be specific (the same call can’t be used for several different reasons) and informative (it has to be made only when a specific situation arises; Seyfarth & Cheney, 2003b). Thus, even though a scream may be an emotional reaction, if it is specific it can convey information other than the emotion (Premack, 1972). Natural selection favors callers who vocalize to affect the behavior of listeners, and listeners who acquire information from vocalizations (Seyfarth & Cheney, 2003a). The two do not need to be linked by intention originally, and indeed, vervet monkeys don’t appear to attribute mental states to others (Seyfarth & Cheney, 1986). Most animal studies suggest that although animal vocalizations may result in a change of another’s behavior, this outcome is unintentional (see Seyfarth & Cheney, 2003).

اگر قرار است یک تماس برای ارائه اطلاعات باشد، باید خاص باشد (از یک تماس به دلایل مختلف نمی‌توان استفاده کرد) و آموزنده (فقط زمانی که یک موقعیت خاص ایجاد می‌شود انجام شود؛ سیفرث و چنی، 2003b). بنابراین، حتی اگر یک فریاد ممکن است یک واکنش عاطفی باشد، اگر خاص باشد می‌تواند اطلاعاتی غیر از احساس را منتقل کند (پریمک، ۱۹۷۲). انتخاب طبیعی از تماس گیرندگانی که صدا می‌زنند تا بر رفتار شنوندگان تأثیر بگذارند و شنوندگانی که اطلاعات را از آواها به دست می‌آورند، ترجیح می‌دهد (Seyfarth & Cheney, 2003a). نیازی نیست که این دو در اصل با قصد و نیت به هم مرتبط شوند، و در واقع، به نظر نمی‌رسد که میمون‌های مخروطی حالات ذهنی را به دیگران نسبت دهند (سیفرث و چنی، ۱۹۸۶). بیشتر مطالعات حیوانی نشان می‌دهد که اگرچه آوازهای حیوانی ممکن است منجر به تغییر رفتار دیگران شود، اما این نتیجه غیرعمدی است (به Seyfarth & Cheney، ۲۰۰۳ مراجعه کنید).

Alarm calls have since been found in many other monkey species and non-primate species. For instance, they have been observed with meerkats (Manser et al., 2001) and chickadees (Templeton et al., 2005), among others. The Diana monkeys of West Africa comprehend the alarm calls of another species that resides in the area, the Campbell’s monkey (Zuberbühler, 2001). They also understand that if the alarm call is preceded by a “boom” call, the threat is not as urgent.

زنگ هشدار از آن زمان در بسیاری از گونه‌های دیگر میمون‌ها و گونه‌های غیر نخستی‌ها یافت شده است. به عنوان مثال، آنها با میرکات‌ها (Manser et al., 2001) و chickadees (Templeton et al., 2005) در میان دیگران مشاهده شده اند. میمون‌های دیانا در غرب آفریقا صدای زنگ گونه دیگری را که در آن منطقه زندگی می‌کند، میمون کمپبل (Zuberbühler, 2001) درک می‌کنند. آن‌ها همچنین می‌دانند که اگر قبل از زنگ هشدار، یک تماس «بوم» وجود داشته باشد، تهدید آنقدر فوری نیست.

Campbell’s monkeys themselves utilize a rudimentary syntax, sometimes referred to as protosyntax (Ouattara et al., 2009). Adult males have six loud calls that they combine in different, highly context-specific ways. But, as was concluded in other studies, whether these combined calls are used for intentional communication is not known. The communication skills of monkeys are impressive, and more complex than previously thought, but it remains clear that such communication is quite different from human language.

خود میمون‌های کمپبل از یک نحو ابتدایی استفاده می‌کنند که گاهی به آن پیش‌سینتکس می‌گویند (Ouattara et al., 2009). نرهای بالغ شش تماس با صدای بلند دارند که آنها را به روش‌های مختلف و کاملاً با زمینه خاص ترکیب می‌کنند. اما همانطور که در مطالعات دیگر نتیجه گیری شد، مشخص نیست که آیا این تماس‌های ترکیبی برای ارتباط عمدی استفاده می‌شوند یا خیر. مهارت‌های ارتباطی میمون‌ها بسیار چشمگیر و پیچیده تر از آن چیزی است که قبلاً تصور می‌شد، اما واضح است که چنین ارتباطی کاملاً با زبان انسان متفاوت است.

Gesture and Communication

ژست و ارتباط

Vocalization is not the only place to look for clues about the evolution of human language. New Zealand psychologist Michael Corballis suggests that human language began with gestures. He has proposed that generative language evolved, perhaps from Homo habilis on, as a system of manual gestures, but switched to a predominantly vocal system with H. sapiens sapiens (Corballis 1991, 2009). A logical question to ask is whether nonhuman primates use gestures to communicate.

صداسازی تنها جایی نیست که می‌توان به دنبال سرنخ‌هایی درباره تکامل زبان انسان بود. مایکل کوربالیس روانشناس نیوزلندی پیشنهاد می‌کند که زبان انسان با حرکات و حرکات شروع می‌شود. او پیشنهاد کرده است که زبان مولد، شاید از هومو‌هابیلیس به بعد، به عنوان سیستمی‌از حرکات دستی تکامل یافته است، اما به سیستمی‌عمدتاً آوازی با H. sapiens sapiens تبدیل شده است (Corballis 1991، ۲۰۰۹). یک سوال منطقی که باید پرسید این است که آیا نخستی‌های غیرانسانی از حرکات برای برقراری ارتباط استفاده می‌کنند؟

Michael Tomasello, a researcher at the Max Planck Institute for Evolutionary Anthropology in Germany, points out that among primates, especially the great apes, gestures are more important than vocalizations for communication, and that the function of communication differs, depending on whether it is vocal or gestural (Tomasello, 2007). In general, vocal calls in the great apes tend to be involuntary signals, associated with a specific emotional state, produced in response to specific stimuli, and broadcast to the surrounding group. They are inflexible.

مایکل تومازلو، محقق مؤسسه انسان‌شناسی تکاملی ماکس پلانک در آلمان، خاطرنشان می‌کند که در میان نخستی‌سانان، به‌ویژه میمون‌های بزرگ، ژست‌ها برای برقراری ارتباط مهم‌تر از صداگذاری هستند و عملکرد ارتباط بسته به آوازی بودن آن متفاوت است. یا اشاره ای (توماسلو، ۲۰۰۷). به طور کلی، تماس‌های صوتی در میمون‌های بزرگ معمولاً سیگنال‌های غیرارادی هستند که با یک حالت عاطفی خاص مرتبط هستند، در پاسخ به محرک‌های خاص تولید می‌شوند و برای گروه اطراف پخش می‌شوند. آنها انعطاف ناپذیر هستند.

By contrast, gestures are flexible; they are used in non-urgent contexts to initiate such things as playing and grooming with a specific individual, and some are learned socially by gorillas (Pika et al., 2003), chimps (Liebal et al., 2004), and bonobos (Pika et al., 2005). Tomasello emphasizes that unlike vocalizations, gestures require knowing the attentional state of the communicating partner. It’s no good making a gesture if no one is paying attention to you. He concludes that primate gestures are more like human language than like either primate vocalizations or human gestural communication (Tomasello and Call, 2018). He suggests, therefore, that the roots of human language may be found in the gestural communication of the great apes.

در مقابل، ژست‌ها انعطاف پذیر هستند. آنها در زمینه‌های غیر فوری برای شروع کارهایی مانند بازی و آراستگی با یک فرد خاص مورد استفاده قرار می‌گیرند، و برخی از آنها به صورت اجتماعی توسط گوریل‌ها (پیکا و همکاران، ۲۰۰۳)، شامپانزه‌ها (لیبال و همکاران، ۲۰۰۴) و بونوبوها (به صورت اجتماعی) آموخته می‌شوند. پیکا و همکاران، ۲۰۰۵). تومازلو تاکید می‌کند که بر خلاف آواها، ژست‌ها مستلزم دانستن وضعیت توجه شریک در ارتباط هستند. اگر کسی به شما توجهی نداشته باشد، ژست گرفتن خوب نیست. او نتیجه می‌گیرد که ژست‌های نخستی‌ها بیشتر شبیه زبان انسان هستند تا شبیه به صداهای نخستی‌ها یا ارتباطات اشاره‌ای انسان (توماسلو و کال، ۲۰۱۸). بنابراین، او پیشنهاد می‌کند که ریشه‌های زبان انسان را می‌توان در ارتباط اشاره ای میمون‌های بزرگ یافت.

Monkeys and the great apes have little cortical control over vocalization but excellent cortical control over the hands and fingers (Ploog, 2002). From these findings and what we know about primate anatomy, it is not surprising that attempts to teach nonhuman primates to speak have failed. Teaching them to communicate manually has been more successful. For instance, Washoe, a chimpanzee, learned a form of manual sign language, and knew approximately 350 signs (Gardner & Gardner, 1969).

میمون‌ها و میمون‌های بزرگ کنترل قشری کمی‌بر صداسازی دارند اما کنترل قشری عالی روی دست‌ها و انگشتان دارند (Ploog، ۲۰۰۲). با توجه به این یافته‌ها و آنچه در مورد آناتومی پستانداران می‌دانیم، جای تعجب نیست که تلاش‌ها برای آموزش صحبت کردن به پستانداران غیرانسان شکست خورده است. آموزش برقراری ارتباط دستی به آنها موفقیت آمیزتر بوده است. به عنوان مثال، Washoe، یک شامپانزه، شکلی از زبان اشاره دستی را یاد گرفت و تقریباً ۳۵۰ نشانه را می‌دانست (گاردنر و گاردنر، ۱۹۶۹).

Kanzi, a bonobo, has learned to point to abstract visual symbols, or lexigrams, on a keyboard and to use that information to communicate (Savage-Rumbaugh & Lewin, 1994; Figure 11.29). Work with Kanzi that was done over the years by Sue Savage-Rumbaugh and her colleagues has also shown that he possesses a protosyntax. For example, relying on word order, he understands the difference between “Make the doggie bite the snake” and “Make the snake bite the doggie,” and he demonstrates his understanding by using stuffed animals.

کانزی، یک بونوبو، یاد گرفته است که به نمادهای بصری انتزاعی، یا واژگان، روی صفحه کلید اشاره کند و از آن اطلاعات برای برقراری ارتباط استفاده کند (Savage-Rumbaugh & Lewin، ۱۹۹۴؛ شکل ۱۱.۲۹). کار با کانزی که طی سال‌ها توسط سو ساویج رامباو و همکارانش انجام شد، همچنین نشان داد که او دارای یک پیشنویس است. به عنوان مثال، با تکیه بر ترتیب کلمات، تفاوت بین «سگ را به گاز زدن مار کن» و «ما را وادار کن که سگ را گاز بگیرد» را درک می‌کند و درک خود را با استفاده از حیوانات عروسکی نشان می‌دهد.

شکل 11.29 سو ساویج-رامبا، کانزی بونوبو، و واژگانی که او یاد گرفته است از آن برای ارتباط استفاده کند

FIGURE 11.29 Sue Savage-Rumbaugh, Kanzi the bonobo, and the lexigrams he has learned to use for communication.
Kanzi is able to match 378 lexigrams with the objects, places, and spoken words they represent. He is able to combine the lexigrams into a protosyntax, and he freely uses the keyboard to ask for objects he wants. He can generalize a specific reference; for instance, he uses the lexigram for bread to mean all breads, including tortillas. Thus, Kanzi is able to understand signs in a symbolic way.

شکل ۱۱.۲۹ سو ساویج-رامبا، کانزی بونوبو، و واژگانی که او یاد گرفته است از آن برای ارتباط استفاده کند.
کانزی قادر است ۳۷۸ واژگان را با اشیا، مکان‌ها و کلمات گفتاری که آنها نشان می‌دهند مطابقت دهد. او قادر است واژگان را در یک پیشنویس ترکیب کند و آزادانه از صفحه کلید برای درخواست اشیاء مورد نظر خود استفاده می‌کند. او می‌تواند یک مرجع خاص را تعمیم دهد. به عنوان مثال، او از لغت نامه برای نان به معنای همه نان‌ها، از جمله تورتیلا استفاده می‌کند. بنابراین، کانزی قادر است نشانه‌ها را به صورت نمادین درک کند.

Another line of evidence comes from Giacomo Rizzolatti and Michael Arbib (1998), who suggested that language arose from a combination of gestures and facial movements, speculating that mirror neurons are a piece of the language puzzle. Mirror neurons were first discovered in area F5 in the monkey, a region in the ventral, rostral premotor cortex (see Chapter 8). The dorsal portion of F5 is involved with hand movements, and the ventral portion, with movement of the mouth and larynx. Area F5 is adjacent to the homologue of human Brodmann area 44, a portion of Broca’s area (Petrides et al., 2005). In the monkey, this region is involved in high-level control of orofacial musculature, including muscles involved in communication. Thus, mirror neurons may help us understand the evolution of language.

یکی دیگر از شواهد از جاکومو ریزولاتی و مایکل آربیب (۱۹۹۸) می‌آید، که پیشنهاد کردند که زبان از ترکیبی از ژست‌ها و حرکات صورت نشأت می‌گیرد و حدس می‌زنند که نورون‌های آینه ای قطعه ای از پازل زبان هستند. نورون‌های آینه ای برای اولین بار در ناحیه F5 در میمون، ناحیه ای در قشر پیش حرکتی شکمی‌و منقاری کشف شدند (به فصل ۸ مراجعه کنید). قسمت پشتی F5 با حرکات دست و قسمت شکمی‌با حرکت دهان و حنجره درگیر است. ناحیه F5 در مجاورت همولوگ ناحیه برودمن انسانی ۴۴، بخشی از ناحیه بروکا است (Petrides et al., 2005). در میمون، این ناحیه در کنترل سطح بالایی از ماهیچه‌های دهان و صورت، از جمله عضلات درگیر در ارتباط، نقش دارد. بنابراین، نورون‌های آینه ای ممکن است به ما در درک تکامل زبان کمک کنند.

Initially, this close association of hand and mouth may have been related to eating, but it later could have expanded to gestures and vocal language. There is some evidence for this proposal. In macaque monkeys, neurons in the lateral part of F5 have been found to activate with conditioned vocalizations-that is, voluntary coo calls that the monkeys were trained to make (Coudé et al., 2011).

در ابتدا، این ارتباط نزدیک دست و دهان ممکن است با غذا خوردن مرتبط باشد، اما بعداً می‌تواند به حرکات و زبان صوتی گسترش یابد. شواهدی برای این پیشنهاد وجود دارد. در میمون‌های ماکاک، نورون‌ها در قسمت جانبی F5 با صداهای شرطی فعال می‌شوند، یعنی صداهای داوطلبانه ای که میمون‌ها برای انجام آن آموزش دیده بودند (کوده و همکاران، ۲۰۱۱).

We know that the left hemisphere controls the motor movements of the right side of the body, in both humans and the great apes. Chimpanzees exhibit preferential use of the right hand in gestural communication both with other chimps and with humans (Meguerditchian et al., 2010), but not when making noncommunicative gestures. This behavior is also seen in captive baboons (Meguerditchian & Vauclair, 2006; Meguerditchian et al., 2010), suggesting that the emergence of language and its typical left lateralization may have arisen from a left-lateralized gestural communication system in the common ancestor of baboons, chimps, and humans.

می‌دانیم که نیمکره چپ حرکات حرکتی سمت راست بدن را هم در انسان و هم در میمون‌های بزرگ کنترل می‌کند. شامپانزه‌ها استفاده ترجیحی از دست راست را در ارتباطات اشاره ای هم با شامپانزه‌های دیگر و هم با انسان‌ها نشان می‌دهند (مگوئردیچیان و همکاران، ۲۰۱۰)، اما نه در هنگام انجام حرکات غیر ارتباطی. این رفتار در بابون‌های اسیر نیز دیده می‌شود (Meguerditchian & Vauclair, 2006; Meguerditchian et al., 2010) که نشان می‌دهد پیدایش زبان و جانبی‌سازی چپ معمولی آن ممکن است ناشی از یک سیستم ارتباطی اشاره‌ای چپ‌گرایانه باشد. جد بابون‌ها، شامپانزه‌ها و انسان‌ها.

At present, the proposal that gesturing may have given rise during the course of evolution to human language ability remains interesting, but not universally accepted, and much of the evidence offered in support of this idea has been challenged. Anthropologist and gesture scientist Adam Kendon has argued that oral and gestural communication skills may have evolved in primates in parallel (Kendon, 2017). Moreover, the most dramatic differences between humans and nonhuman primates in the left perisylvian region are those involving the rise of left-hemisphere specializations in humans, the representation of linguistic information in the temporal lobe, and the increased connectivity of the temporal lobe with the networks of the left perisylvian region of the brain.

در حال حاضر، این پیشنهاد که اشاره کردن ممکن است در طول سیر تکاملی توانایی زبان انسان را به وجود آورده باشد، جالب است، اما به طور جهانی پذیرفته نشده است، و بسیاری از شواهد ارائه شده در حمایت از این ایده به چالش کشیده شده است. آدام کندون، انسان شناس و دانشمند ژست‌ها، استدلال کرده است که مهارت‌های ارتباطی شفاهی و اشاره ای ممکن است در پستانداران به طور موازی تکامل یافته باشد (کندون، ۲۰۱۷). علاوه بر این، چشمگیرترین تفاوت‌ها بین انسان‌ها و نخستی‌های غیرانسان در ناحیه پریسیلوی چپ، مواردی است که شامل افزایش تخصص‌های نیمکره چپ در انسان، نمایش اطلاعات زبانی در لوب گیجگاهی، و افزایش ارتباط لوب گیجگاهی با شبکه‌ها می‌شود. ناحیه پریسیلویان چپ مغز.

Left-Hemisphere Dominance and Specialization

تسلط و تخصص نیمکره چپ

Human language is clearly a left-hemisphere-dominant ability. But what is it about the left hemisphere that is different in humans, and how did this specialization arise over the course of evolution? We have some clues. The first question we might ask is whether communication is left-hemisphere dominant in nonhuman primates.

زبان انسان به وضوح یک توانایی غالب در نیمکره چپ است. اما چه چیزی در نیمکره چپ در انسان متفاوت است و چگونه این تخصص در طول تکامل به وجود آمد؟ ما سرنخ‌هایی داریم اولین سوالی که ممکن است بپرسیم این است که آیا ارتباط در پستانداران غیرانسان بر نیمکره چپ غالب است؟

A PET imaging study in chimpanzees found that when they made a communicative gesture or an atypical novel sound while begging for food, the left inferior frontal gyrus, a region considered to be homologous to Broca’s area, was activated (Taglialatela et al., 2008). What is an atypical sound? First described in 1991 (Marshall et al., 1991), atypical sounds are produced only by some captive chimps. Three have been identified: a “raspberry,” an “extended grunt,” and a “kiss.” The sounds have been observed to be socially learned and selectively produced to gain the attention of an inattentive human (Hopkins, Taglialatela, et al., 2007).

یک مطالعه تصویربرداری PET در شامپانزه‌ها نشان داد که هنگامی‌که آنها یک حرکت ارتباطی یا صدای بدیع غیرعادی هنگام گدایی غذا انجام می‌دهند، شکنج پیشانی تحتانی چپ، ناحیه‌ای که همولوگ با ناحیه بروکا در نظر گرفته می‌شود، فعال می‌شود (Taglialatela و همکاران، ۲۰۰۸). . صدای غیر معمول چیست؟ اولین بار در سال ۱۹۹۱ توصیف شد (مارشال و همکاران، ۱۹۹۱)، صداهای غیر معمول فقط توسط برخی شامپانزه‌های اسیر تولید می‌شوند. سه مورد شناسایی شده است: یک “تمشک”، “غرغر طولانی” و یک “بوسه”. مشاهده شده است که صداها از نظر اجتماعی آموخته می‌شوند و به طور انتخابی برای جلب توجه یک انسان بی توجه تولید می‌شوند (هاپکینز، تالیالاتلا، و همکاران، ۲۰۰۷).

The left-hemisphere dominance for communication may also be present in the chimpanzee. In humans, the left lateralization of speech is actually visible: The right side of the mouth opens first and wider. In contrast, the left side gears up first with emotional expressions. In two large colonies of captive chimps, the same thing was found: left-hemisphere dominance for the production of learned attention-getting sounds, and right-hemisphere dominance for the production of species-typical vocalizations (Losin et al., 2008; Wallez & Vauclair, 2011). These studies all suggest that the left hemisphere’s voluntary control of hand gestures (area F5) and vocalizations may have evolved into an integrative system. But the story is more complicated than this.

تسلط نیمکره چپ برای ارتباط ممکن است در شامپانزه نیز وجود داشته باشد. در انسان، سمت چپ گفتار در واقع قابل مشاهده است: سمت راست دهان ابتدا و بیشتر باز می‌شود. در مقابل، سمت چپ ابتدا با عبارات احساسی آماده می‌شود. در دو مستعمره بزرگ شامپانزه‌های اسیر، یک چیز مشابه یافت شد: تسلط بر نیمکره چپ برای تولید صداهای جلب توجه و تسلط نیمکره راست برای تولید صداهای معمولی گونه‌ها (لوسین و همکاران، ۲۰۰۸؛ والز). و واکلر، ۲۰۱۱). همه این مطالعات نشان می‌دهد که کنترل ارادی نیمکره چپ حرکات دست (ناحیه F5) و صداها ممکن است به یک سیستم یکپارچه تبدیل شده باشد. اما داستان پیچیده تر از این است.

The advent of functional and structural brain imaging revolutionized the study of the organization not only of the human brain, but also of the brains of animals. These methods have enabled a comparative structural and functional neuroanatomy to be pursued, which has revealed a remarkable story about the evolution of the left- hemisphere perisylvian language system within primates.

ظهور تصویربرداری عملکردی و ساختاری مغز، تحولی در مطالعه سازماندهی نه تنها مغز انسان، بلکه در مورد مغز حیوانات نیز ایجاد کرد. این روش‌ها امکان پیگیری یک نوروآناتومی ساختاری و عملکردی مقایسه‌ای را فراهم کرده‌اند که داستان قابل‌توجهی را در مورد تکامل سیستم زبان پریسیلوی نیمکره چپ در نخستی‌ها آشکار کرده است.

شکل 11.30 نوروآناتومی سیستم زبانی نیمکره چپ انسان در مقایسه با شامپانزه‌ها و ماکاک‌ها

FIGURE 11.30 Neuroanatomy of the human left-hemisphere perisylvian language system compared to chimpanzees and macaques.
DTI images (top) and network models (bottom). (a) Humans have robust interconnectivity of the inferior frontal cortex, inferior parietal cortex, and temporal cortex, especially lateral and inferior temporal cortex by massive projections of the arcuate fasciculus. (b-c) The white matter tracts of the chimpanzee and the macaque monkey show greatly reduced or absent projections into lateral and inferior temporal cortex. CS = central sulcus; IFS = inferior frontal sulcus; IPS = intraparietal sulcus; PrCS = precentral sulcus; STS = superior temporal sulcus.

شکل ۱۱.۳۰ نوروآناتومی سیستم زبانی نیمکره چپ انسان در مقایسه با شامپانزه‌ها و ماکاک‌ها.
تصاویر DTI (بالا) و مدل‌های شبکه (پایین). (الف) انسان‌ها با برجستگی‌های عظیم فاسیکولوس کمانی، اتصال متقابل قوی قشر پیشانی تحتانی، قشر آهیانه‌ای تحتانی و قشر تمپورال، به ویژه قشر تمپورال جانبی و تحتانی دارند. (ب-ج) مسیرهای ماده سفید شامپانزه و میمون ماکاک برجستگی بسیار کاهش یافته یا غایب در قشر تمپورال جانبی و تحتانی را نشان می‌دهد. CS = شیار مرکزی; IFS = شیار فرونتال تحتانی. IPS = شیار داخل آهیانه‌ای; PrCS = شیار پیش مرکزی. STS = شیار گیجگاهی فوقانی.

In humans, the left perisylvian language cortex is defined by its extensive connectivity among key brain regions in the inferior frontal, inferior parietal, and temporal lobes.

در انسان، قشر زبان پریسیلوی چپ با اتصال گسترده آن در میان نواحی کلیدی مغز در لوب‌های فرونتال، پاریتال تحتانی و گیجگاهی تعریف می‌شود.

As Wernicke had glimpsed in his hypothesis about connections between Wernicke’s area and Broca’s area, elaborate white matter pathways connect key nodes of the system. Today, though, we know the connectivity to be much richer than Wernicke ever guessed. Was this elaborate system of connections present in our ancestors, perhaps serving another function and later co-opted for human language? Studies of our nonhuman primate relatives tell us a fascinating tale.

همانطور که ورنیکه در فرضیه خود در مورد اتصالات بین ناحیه ورنیکه و ناحیه بروکا نگاهی اجمالی داشت، مسیرهای دقیق ماده سفید گره‌های کلیدی سیستم را به هم متصل می‌کند. با این حال، امروز می‌دانیم که اتصال بسیار غنی تر از آن چیزی است که ورنیکه تا به حال حدس می‌زد. آیا این سیستم پیچیده از ارتباطات در اجداد ما وجود داشته است، شاید کارکرد دیگری داشته باشد و بعداً برای زبان بشری انتخاب شود؟ مطالعات انجام شده بر روی خویشاوندان نخستی‌های غیرانسانی ما داستان جذابی را به ما می‌گویند.

James Rilling and his colleagues at Emory University, the Yerkes Primate Center, and Oxford University used modern DTI with MRI in humans, chimpanzees, and macaque monkeys (Rilling et al., 2008). They found a remarkable clue to the evolution of the left perisylvian language system. As we have seen, there are major dorsal and ventral projection pathways in humans that inter- connect the temporal lobe with parietal and inferior frontal cortex (Figure 11.30a). The large fiber tracts have a rich microstructure. These subprojections interconnect brain areas in a fashion that helps us to understand the complexity of human language and how damage to this system can result in a variety of language disorders (Fridriksson et al., 2018).

جیمز ریلینگ و همکارانش در دانشگاه اموری، مرکز پستانداران یرکس و دانشگاه آکسفورد از DTI مدرن با MRI در انسان، شامپانزه و میمون ماکاک استفاده کردند (ریلینگ و همکاران، ۲۰۰۸). آنها سرنخ قابل توجهی از تکامل سیستم زبان پریسیلوی چپ پیدا کردند. همانطور که دیدیم، مسیرهای برجسته پشتی و شکمی‌در انسان وجود دارد که لوب گیجگاهی را با قشر فرونتال آهیانه‌ای و تحتانی متصل می‌کند (شکل ۱۱.30a). لوله‌های فیبر بزرگ دارای ریزساختار غنی هستند. این طرح‌های فرعی نواحی مغز را به شکلی به هم متصل می‌کنند که به ما کمک می‌کند تا پیچیدگی زبان انسان را درک کنیم و اینکه چگونه آسیب به این سیستم می‌تواند منجر به انواع اختلالات زبانی شود (فریدریکسون و همکاران، ۲۰۱۸).

In the chimpanzee and macaque monkey (Figure 11.30b, c), however, the projections among inferior frontal, parietal, and temporal lobes are greatly reduced, with major differences visible in how the system projects into the lateral and inferior temporal lobe. Indeed, the regions of the temporal lobe that we now know have rich representations of words, meanings, and concepts in humans correspond primarily to high-level extrastriate visual cortical areas in the macaque. These findings fit well with the idea that during human evolution, dramatic changes in connectivity and likely in the cortical areas themselves took place, supporting the rise of human language in all its rich and detailed complexity.

با این حال، در شامپانزه و میمون ماکاک (شکل ۱۱.30b، c)، برجستگی‌ها در میان لوب‌های فرونتال، آهیانه‌ای و گیجگاهی تحتانی بسیار کاهش می‌یابد، با تفاوت‌های عمده در نحوه بیرون‌آمدن سیستم به لوب تمپورال جانبی و تحتانی. در واقع، نواحی لوب گیجگاهی که ما اکنون می‌دانیم دارای بازنمایی غنی از کلمات، معانی و مفاهیم در انسان هستند، عمدتاً با نواحی قشری بینایی خارج از سطح بالا در ماکاک مطابقت دارند. این یافته‌ها به خوبی با این ایده مطابقت دارند که در طول تکامل انسان، تغییرات چشمگیری در اتصالات و احتمالاً در خود نواحی قشری رخ داده است که از ظهور زبان انسانی در تمام پیچیدگی‌های غنی و دقیق آن پشتیبانی می‌کند.

TAKE-HOME MESSAGES

پیام‌های اصلی

▪️Nonhuman primates’ vocalizations can carry meaning and show evidence of rudimentary syntax. In general, however, animal calls tend to be inflexible, associated with a specific emotional state, and linked to a specific stimulus.

▪️ آوای نخستی‌های غیر انسانی می‌تواند معنی داشته باشد و شواهدی از نحو ابتدایی را نشان دهد. با این حال، به طور کلی، تماس‌های حیوانی تمایل به انعطاف ناپذیری دارند، با یک حالت عاطفی خاص همراه هستند و به یک محرک خاص مرتبط هستند.

▪️ Some researchers suggest that human speech and language evolved from hand gestures, or a combination of hand gestures and facial movement.

▪️ برخی از محققان پیشنهاد می‌کنند که گفتار و زبان انسان از حرکات دست، یا ترکیبی از حرکات دست و حرکات صورت تکامل یافته است.

▪️The greatest evolutionary brain changes we know of involve the size and function of the left temporal cortex and, importantly, how this cortex is interconnected with inferior frontal and parietal cortex.

▪️ بزرگترین تغییرات تکاملی مغز که ما از آنها می‌شناسیم مربوط به اندازه و عملکرد قشر گیجگاهی چپ و مهمتر از همه، نحوه ارتباط این قشر با قشر فرونتال و آهیانه‌ای تحتانی است.

Summary

خلاصه

Language is unique among mental functions in that only humans possess a true and elaborate language system. We have known for more than a century that regions around the Sylvian fissure of the dominant left hemisphere participate in language comprehension and production. Classical models, however, are insufficient for understanding the computations that support language, and they don’t fully explain disorders of language. Newer formulations based on detailed analysis of the effects of neurological lesions, supported by improvements in structural imaging, functional neuroimaging, human electrophysiology, and computational modeling, now provide some surprising modifications of older models.

زبان در میان کارکردهای ذهنی منحصر به فرد است زیرا فقط انسان‌ها دارای یک سیستم زبانی درست و دقیق هستند. ما بیش از یک قرن است که می‌دانیم مناطق اطراف شکاف سیلوین نیمکره چپ غالب در درک و تولید زبان مشارکت دارند. با این حال، مدل‌های کلاسیک برای درک محاسباتی که زبان را پشتیبانی می‌کنند، کافی نیستند و اختلالات زبان را به طور کامل توضیح نمی‌دهند. فرمول‌های جدیدتر مبتنی بر تجزیه و تحلیل دقیق اثرات ضایعات عصبی، که با بهبود تصویربرداری ساختاری، تصویربرداری عصبی عملکردی، الکتروفیزیولوژی انسانی و مدل‌سازی محاسباتی پشتیبانی می‌شوند، اکنون برخی تغییرات شگفت‌انگیز را در مدل‌های قدیمی‌تر ارائه می‌دهند.

What has emerged is the left perisylvian language system, which has elaborate white matter connections between inferior frontal cortex (including Broca’s area), inferior parietal cortex, and widespread regions of the temporal lobe (including Wernicke’s area). Over the course of evolution in primates, the size and complexity of the connections of the left hemisphere that make up the human left perisylvian language system have changed dramatically. Pathways and brain areas that are elaborately interconnected in humans are greatly reduced or absent in macaque monkeys and even chimpanzees. The human right hemisphere also possesses significant linguistic ability, but studies in patients, including split-brain patients, show these abilities to be limited. The human language system is complex, and much remains to be learned about how the biology of the brain enables the rich speech and language comprehension that characterize our daily lives.

آنچه پدیدار شده است سیستم زبان پریسیلویای چپ است که دارای اتصالات ماده سفید مفصلی بین قشر فرونتال تحتانی (شامل ناحیه بروکا)، قشر آهیانه‌ای تحتانی و نواحی گسترده لوب تمپورال (از جمله ناحیه ورنیکه) است. در طول تکامل در پستانداران، اندازه و پیچیدگی اتصالات نیمکره چپ که سیستم زبان چپ پریسیلوی انسان را تشکیل می‌دهد، به طور چشمگیری تغییر کرده است. مسیرها و نواحی مغزی که به طور مفصل در انسان به هم مرتبط هستند در میمون‌های ماکاک و حتی شامپانزه‌ها بسیار کاهش یافته یا وجود ندارد. نیمکره راست انسان نیز دارای توانایی زبانی قابل توجهی است، اما مطالعات انجام شده در بیماران، از جمله بیماران تقسیم مغز، نشان می‌دهد که این توانایی‌ها محدود است. سیستم زبانی انسان پیچیده است، و هنوز چیزهای زیادی در مورد اینکه چگونه زیست شناسی مغز درک گفتار و زبان غنی را که مشخصه زندگی روزمره ما است، قادر می‌سازد، آموخته شود.

Key Terms

اصطلاحات کلیدی

agrammatic aphasia (p. 481)

alexia (p. 494)

anomia (p. 478)

aphasia (p. 477)

apraxia (p. 478)

arcuate fasciculus (p. 481)

Broca’s aphasia (p. 478)

Broca’s area (p. 480)

conduction aphasia (p. 481)

dysarthria (p. 477)

lexical access (p. 483)

lexical integration (p. 483)

lexical selection (p. 483)

mental lexicon (p. 483)

morpheme (p. 483)

N400 response (p. 498)

orthographic form (p. 483)

P600 response (p. 500)

phoneme (p. 483)

phonological form (p. 483)

semantic paraphasia (p. 484)

Sylvian fissure (p. 477)

syntactic parsing (p. 498)

syntax (p. 481)

Wernicke’s aphasia (p. 481)

Wernicke’s area (p. 481)

Think About It

در مورد آن فکر کنید

۱. How might the mental lexicon be organized in the brain? Would we expect to find it localized in a particular region in cortex? If so, where, and what evidence supports this view?

۱. واژگان ذهنی چگونه ممکن است در مغز سازماندهی شود؟ آیا انتظار داریم که آن را در یک ناحیه خاص در قشر مغز پیدا کنیم؟ اگر چنین است، کجا و چه شواهدی این دیدگاه را تأیید می‌کند؟

۲. At what stage of input processing are the comprehension of spoken language and the comprehension of written language the same, and where must they be different? Are there any exceptions to this rule?

۲. درک زبان گفتاری و درک زبان نوشتاری در چه مرحله ای از پردازش ورودی یکسان هستند و در کجا باید متفاوت باشند؟ آیا استثنایی برای این قاعده وجود دارد؟

۳. Describe the route that an auditory speech signal might take in the cortex, from perceptual analysis to comprehension.

۳. مسیری را که سیگنال گفتار شنوایی ممکن است در قشر مغز طی کند، از تحلیل ادراکی تا درک را شرح دهید.

۴. What evidence exists for the role of the right hemi- sphere in language processing? If the right hemisphere has a role in language, what might that role be?

۴. چه شواهدی برای نقش نیمکره راست در پردازش زبان وجود دارد؟ اگر نیمکره راست نقشی در زبان دارد، آن نقش چه می‌تواند باشد؟

۵. Can knowledge of the world around you affect the way you process and understand words?

۵. آیا شناخت دنیای اطراف شما می‌تواند بر نحوه پردازش و درک کلمات تأثیر بگذارد؟

۶. Describe the anatomy and circuitry of the left perisylvian language system, and how it has changed over the course of primate evolution.

۶. تشریح آناتومی و مدار سیستم زبان پریسیلوی چپ، و چگونگی تغییر آن در طول تکامل نخستی‌ها.


کلیک کنید تا Suggested Reading نمایش داده شود

Fridriksson, J., den Ouden, D. B., Hillis, A. E., Hickok, G., Rorden, C., Basilakos, A., et al. (2018). Anatomy of aphasia revisited. Brain, 141(3), 848-862. doi:10.1093 /brain/awx363 [Epub ahead of print]

Friederici, A. D. (2012). The cortical language circuit: From auditory perception to sentence comprehension. Trends in Cognitive Science, 16(5), 262-268.

Hagoort, P. (2013). MUC (Memory, Unification, Control) and beyond. Frontiers in Psychology, 4, 416.

Kaan, E., & Swaab, T. (2002). The brain circuitry of syntactic comprehension. Trends in Cognitive Sciences, 6,350-356.

Lau, E., Phillips, C., & Poeppel, D. (2008). A cortical network for semantics: (De)constructing the N400. Nature Reviews Neuroscience, 9(12), 920-933.

Levelt, W. J. M. (2001). Spoken word production: A theory of lexical access. Proceedings of the National Academy of Sciences, USA, 98, 13464-13471.

Poeppel, D., Emmorey, K., Hickok, G., & Pylkkänen, L. (2012). Towards a new neurobiology of language. Journal of Neuroscience, 32(41), 14125-14131.

Price, C. J. (2012). A review and synthesis of the first 20 years of PET and fMRI studies of heard speech, spoken language and reading. NeuroImage, 62, 816-847.

Rilling, J. K. (2014). Comparative primate neurobiology and the evolution of brain language systems. Current Opinion in Neurobiology, 28, 10-14. doi:10.1016 /j.conb.2014.04.002 [Epub, May 14]






کپی بخش یا کل این مطلب «آینده‌‌نگاران مغز» تنها با کسب مجوز مکتوب امکان‌پذیر است. 

» کتاب علوم اعصاب شناختی گازانیگا

» کتاب علوم اعصاب شناختی گازانیگا
»» فصل قبل: فصل هیجان
»» فصل بعد: فصل کنترل شناختی

» کتاب علوم اعصاب شناختی گازانیگا
»» تمامی کتاب

امتیاز نوشته:

میانگین امتیازها: ۵ / ۵. تعداد آراء: ۱

اولین نفری باشید که به این پست امتیاز می‌دهید.

داریوش طاهری

نه اولین، اما در تلاش برای بهترین بودن؛ نه پیشرو در آغاز، اما ممتاز در پایان. ——— ما شاید آغازگر راه نباشیم، اما با ایمان به شایستگی و تعالی، قدم برمی‌داریم تا در قله‌ی ممتاز بودن بایستیم.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا