علوم اعصاب شناختی؛ زبان؛ مبانی زبان در مغز انسان؛ درک زبان

دعای مطالعه [ نمایش ]
بِسْمِ الله الرَّحْمنِ الرَّحیمِ
اَللّهُمَّ اَخْرِجْنى مِنْ ظُلُماتِ الْوَهْمِ
خدایا مرا بیرون آور از تاریکىهاى وهم،
وَ اَکْرِمْنى بِنُورِ الْفَهْمِ
و به نور فهم گرامى ام بدار،
اَللّهُمَّ افْتَحْ عَلَیْنا اَبْوابَ رَحْمَتِکَ
خدایا درهاى رحمتت را به روى ما بگشا،
وَانْشُرْ عَلَیْنا خَزائِنَ عُلُومِکَ بِرَحْمَتِکَ یا اَرْحَمَ الرّاحِمینَ
و خزانههاى علومت را بر ما باز کن به امید رحمتت اى مهربانترین مهربانان.
۱۱.۲ The Fundamentals of Language in the Human Brain
۱۱.۲ مبانی زبان در مغز انسان
Human language is called a natural language because it arises from the abilities of the brain. It can be spoken, gestured, and written. Any natural language has a vocabulary, grammar, and syntactic rules; it uses symbolic coding of information to communicate both concrete and abstract ideas. Language can convey information about the past, the present, and our plans for the future, enabling us to pass information between social partners and to gain information from those who are not present or no longer alive.
زبان انسان را زبان طبیعی مینامند زیرا از تواناییهای مغز ناشی میشود. میتوان آن را گفت، اشاره کرد و نوشت. هر زبان طبیعی دارای واژگان، دستور زبان و قواعد نحوی است. از رمزگذاری نمادین اطلاعات برای انتقال ایدههای عینی و انتزاعی استفاده میکند. زبان میتواند اطلاعاتی را در مورد گذشته، حال و برنامههای ما برای آینده منتقل کند و ما را قادر میسازد اطلاعات را بین شرکای اجتماعی منتقل کنیم و از کسانی که در حال حاضر نیستند یا دیگر در قید حیات نیستند اطلاعات کسب کنیم.
Thus, we can learn from the experiences of previous generations (if we are willing to). So, how does the brain cope with spoken, gestured, and written input to derive meaning? And how does the brain produce spoken, signed, and written output to communicate meaning to others?
بنابراین، ما میتوانیم از تجربیات نسلهای قبلی (اگر مایل باشیم) درس بگیریم. بنابراین، مغز چگونه با ورودی گفتاری، اشاره ای و نوشتاری برای استخراج معنا کنار میآید؟ و چگونه مغز خروجی گفتاری، امضایی و نوشتاری را برای انتقال معنا به دیگران تولید میکند؟
To answer these questions, we consider several key aspects of language in this chapter. First among these is storage: The brain must store representations of words and their associated concepts. A word in a spoken language has two properties: a meaning and a phonological (sound- based) form. A word in a written language also has an or- thographic (vision-based) form. One of the central ideas in word (lexical) representation is the mental lexicon- a mental store of information about words that includes semantic information (the words’ meanings), syntactic information (how the words combine to form sentences), and the details of word forms (their spellings and sound patterns). Most theories agree that the mental lexicon plays a central role in language. Some models, however, propose a single mental lexicon for both language comprehension and production, whereas other models distinguish between input and output lexica.
برای پاسخ به این سوالات، چندین جنبه کلیدی زبان را در این فصل بررسی میکنیم. اولین در میان آنها ذخیره سازی است: مغز باید بازنمایی کلمات و مفاهیم مرتبط با آنها را ذخیره کند. یک کلمه در یک زبان گفتاری دو ویژگی دارد: یک معنا و یک شکل واجی (مبتنی بر صدا). یک کلمه در یک زبان نوشتاری همچنین دارای شکل املایی (مبتنی بر بینایی) است. یکی از ایدههای اصلی در بازنمایی کلمه (لغتشناسی) واژگان ذهنی است – ذخیرهای ذهنی از اطلاعات در مورد کلمات که شامل اطلاعات معنایی (معنای کلمات)، اطلاعات نحوی (نحوه ترکیب کلمات برای تشکیل جملات) و جزئیات است. اشکال کلمه (املا و الگوهای صوتی آنها). اکثر نظریهها موافق هستند که واژگان ذهنی نقش اصلی را در زبان بازی میکند. با این حال، برخی مدلها یک واژگان ذهنی واحد را برای درک و تولید زبان پیشنهاد میکنند، در حالی که مدلهای دیگر بین واژگان ورودی و خروجی تمایز قائل میشوند.
Let’s approach the mental lexicon from the stand- point of language comprehension (although these concepts apply to language production as well). Once we have perceptually analyzed words that we heard as sound, read in print or writing, or saw as signed gestures, three general functions involving the mental lexicon are hypothesized:
بیایید از منظر درک زبان به واژگان ذهنی نزدیک شویم (اگرچه این مفاهیم در تولید زبان نیز کاربرد دارند). هنگامیکه کلماتی را که به صورت صدا شنیدیم، به صورت چاپی یا نوشتاری خواندهایم، یا به عنوان حرکات علامتدار دیدهایم، به صورت ادراکی تحلیل کردیم، سه کارکرد کلی مربوط به واژگان ذهنی فرض میشود:
۱. Lexical access, the stage(s) of processing in which the output of perceptual analysis activates word- form representations in the mental lexicon, including their semantic and syntactic attributes.
۱. دسترسی واژگانی، مرحله(های) پردازش که در آن خروجی تحلیل ادراکی، بازنماییهای شکلی کلمه را در واژگان ذهنی فعال میکند، از جمله ویژگیهای معنایی و نحوی آنها.
۲. Lexical selection, the stage in which the representation that best matches the input is identified (i.e., selected).
۲. انتخاب واژگانی، مرحله ای که در آن نمایشی که به بهترین شکل با ورودی مطابقت دارد شناسایی میشود (یعنی انتخاب میشود).
۳. Lexical integration, the final stage, in which words are integrated into the full sentence, discourse, or larger context to facilitate understanding of the whole message.
۳. ادغام واژگانی، مرحله نهایی، که در آن کلمات در جمله کامل، گفتمان یا زمینه بزرگتر ادغام میشوند تا درک کل پیام را تسهیل کنند.
Grammar and syntax are the rules by which lexical items are organized in a particular language to produce the intended meaning. We will begin our exploration of these functions by asking how the mental lexicon might be organized, and how that organization might be represented in the brain.
دستور زبان و نحو قواعدی هستند که به وسیله آنها اقلام واژگانی در یک زبان خاص سازماندهی میشوند تا معنای مورد نظر را تولید کنند. ما کاوش خود را در مورد این کارکردها با پرسیدن اینکه چگونه واژگان ذهنی ممکن است سازماندهی شود، و چگونه آن سازمان ممکن است در مغز نمایش داده شود، آغاز خواهیم کرد.
Organization of the Mental Lexicon
سازمان واژگان ذهنی
A normal adult speaker has passive knowledge of about 50,000 words, yet can easily recognize and produce about three words per second. Given this speed and the size of the database, the mental lexicon must be organized in a highly efficient manner. For example, it could be organized alphabetically, in which case it might take longer to find words in the middle of the alphabet, such as the ones starting with K, L, O, or U, than to find a word starting with an A or a Z. Instead, however, the mental lexicon is proposed to have other features that help us quickly move from spoken or written input to the representations of words. Linguistic evidence supports the following four organizing principles:
یک گوینده بزرگسال عادی دانش منفعلانه ای از حدود ۵۰۰۰۰ کلمه دارد، اما به راحتی میتواند حدود سه کلمه را در ثانیه تشخیص دهد و تولید کند. با توجه به این سرعت و اندازه پایگاه داده، واژگان ذهنی باید به شیوه ای بسیار کارآمد سازماندهی شود. برای مثال، میتوان آن را بر اساس حروف الفبا سازماندهی کرد، در این صورت ممکن است یافتن کلمات در وسط الفبا، مانند کلماتی که با K، L، O یا U شروع میشوند، بیشتر از یافتن کلمهای که با A شروع میشود، طول بکشد. به جای آن، واژگان ذهنی دارای ویژگیهای دیگری است که به ما کمک میکند به سرعت از ورودی گفتاری یا نوشتاری به بازنمایی کلمات برویم. شواهد زبانی از چهار اصل سازماندهی زیر پشتیبانی میکند:
۱. The smallest meaningful representational unit in a language is called a morpheme; this is also the smallest unit of representation in the mental lexicon. As an example consider the words frost, defrost, and defroster. The root of these words, frost, forms one morpheme; the prefix “de” in defrost changes the meaning of the word frost and is a morpheme as well; and finally, the word defroster consists of three morphemes (adding the morpheme “er”).
۱. کوچکترین واحد بازنمایی معنادار در یک زبان، تکواژ نامیده میشود. این نیز کوچکترین واحد بازنمایی در واژگان ذهنی است. به عنوان مثال کلمات frost ،defrost و defroster را در نظر بگیرید. ریشه این کلمات، فراست، یک تکواژ را تشکیل میدهد. پیشوند «de» در یخ زدایی معنای کلمه یخ زدگی را تغییر میدهد و یک تکواژ نیز میباشد. و در نهایت کلمه defroster از سه تکواژ (با اضافه کردن تکواژ «er») تشکیل شده است.
۲. More frequently used words are accessed more quickly than less frequently used words; for instance, the word people is more readily available than the word fledgling.
۲. کلمات پرکاربرد سریعتر از کلمات کمتر استفاده میشوند. به عنوان مثال، کلمه مردم راحت تر از کلمه نوپا در دسترس است.
۳. The lexicon is organized in neighborhoods consisting of words that differ from one another by a single letter or phoneme (e.g., bat, cat, hat, sat). A phoneme is the smallest unit of sound that makes a difference to meaning. Words with many overlapping phonemes or letters are thought to cluster in the mental lexicon in such a way that when incoming words access one word representation, other items in its lexical neighborhood are also initially accessed, prompting selection among candidate words, which takes time.
۳. واژگان در محلههایی سازماندهی شده است که از کلماتی تشکیل شده است که با یک حرف یا واج با یکدیگر تفاوت دارند (مانند خفاش، گربه، کلاه، نشست). واج کوچکترین واحد صوت است که در معنا تفاوت ایجاد میکند. تصور میشود که کلماتی که دارای واجها یا حروف همپوشانی زیادی هستند در فرهنگ لغت ذهنی جمع میشوند به گونهای که وقتی کلمات ورودی به بازنمایی یک کلمه دسترسی پیدا میکنند، در ابتدا به موارد دیگر در همسایگی واژگانی آن نیز دسترسی پیدا میشود که باعث انتخاب از میان کلمات نامزد میشود که زمان میبرد.
۴. Representations in the mental lexicon are organized according to semantic relationships between words. Evidence for this type of organization comes from semantic priming studies that use a lexical decision task. In a semantic priming study, participants are presented with pairs of words. The first member of the word pair is the prime, while the second member, the target, can be a real word (truck), a nonword (like ruke), or a pseudoword (a word that follows the phonological rules of a language but is not a real word, like trulk). If the target is a real word, it can be related or unrelated in meaning to the prime word.
۴. بازنماییها در واژگان ذهنی بر اساس روابط معنایی بین کلمات سازماندهی میشوند. شواهد برای این نوع سازمان از مطالعات آغازگر معنایی به دست میآید که از یک وظیفه تصمیم گیری واژگانی استفاده میکند. در یک مطالعه مقدماتی معنایی، به شرکت کنندگان جفت کلمات ارائه میشود. اولین عضو جفت کلمه اول است، در حالی که عضو دوم، هدف، میتواند یک کلمه واقعی (کامیون)، یک غیرکلمه (مانند روک) یا یک شبه کلمه (کلمه ای باشد که از قواعد واج شناختی یک زبان پیروی میکند اما یک کلمه واقعی نیست، مانند trulk). اگر هدف یک کلمه واقعی باشد، میتواند از نظر معنی با کلمه اول مرتبط یا نامرتبط باشد.
For the task, the participants must decide as quickly and accurately as possible whether the target is a word (i.e., make a lexical decision), pressing a button to indicate their decision. Participants are faster and more accurate at making the lexical decision for a real-word target when it is preceded by a semantically related prime (e.g., the prime car for the target truck) than by an unrelated prime (e.g., the prime sunny for the target truck). This pattern of facilitated response speed reveals that words related in meaning must somehow be organized together in the mental lexicon, and therefore also presumably in the brain.
برای انجام این کار، شرکت کنندگان باید تا حد امکان سریع و دقیق تصمیم بگیرند که آیا هدف یک کلمه است یا نه (یعنی تصمیم لغوی بگیرید) و یک دکمه را برای نشان دادن تصمیم خود فشار دهید. شرکتکنندگان در تصمیمگیری واژگانی برای یک هدف واقعی سریعتر و دقیقتر هستند، زمانی که قبل از آن یک عدد اول مرتبط معنایی (به عنوان مثال، ماشین اصلی برای کامیون هدف) از یک عدد اول غیرمرتبط (مثلاً آفتابی اول برای کامیون هدف). این الگوی سرعت پاسخ تسهیل شده نشان میدهد که کلمات مرتبط با معنی باید به نحوی در فرهنگ لغت ذهنی و بنابراین احتمالاً در مغز با هم سازماندهی شوند.
Models of the Mental Lexicon
مدلهای واژگان ذهنی
Several connectionist models have been proposed to explain the effects of semantic priming during word recognition. In an influential model proposed by A. M. Collins and E. F. Loftus (1975), word meanings are represented in a semantic network in which words, depicted as conceptual nodes, are connected with each other. Figure 11.6 shows an example of a semantic network. The strength of the connection and the distance between the nodes are determined by the semantic or associative relations between the words. For example, the node that represents the word car will be close to and have a strong connection with the node that represents the word truck. A major component of this model is the assumption that activation spreads from one conceptual node to others, and that nodes that are closer together will benefit more from this spreading activation than will distant nodes.
چندین مدل پیوندگرا برای توضیح اثرات آغازگر معنایی در طی تشخیص کلمه پیشنهاد شده است. در یک مدل تاثیرگذار پیشنهاد شده توسط A. M. Collins و E. F. Loftus (1975)، معانی کلمات در یک شبکه معنایی نشان داده میشوند که در آن کلمات، به عنوان گرههای مفهومیبه تصویر کشیده میشوند، با یکدیگر مرتبط هستند. شکل ۱۱.۶ نمونه ای از شبکه معنایی را نشان میدهد. قدرت اتصال و فاصله بین گرهها توسط روابط معنایی یا انجمنی بین کلمات تعیین میشود. به عنوان مثال، گره ای که کلمه ماشین را نشان میدهد نزدیک است و با گره ای که کلمه کامیون را نشان میدهد، ارتباط قوی خواهد داشت. یکی از اجزای اصلی این مدل این فرض است که فعالسازی از یک گره مفهومیبه گرههای دیگر گسترش مییابد، و گرههایی که به هم نزدیکتر هستند، از این فعالسازی گستردهتر از گرههای دور سود میبرند.
There are many other connectionist models and ideas of how conceptual knowledge is represented. Some propose that words that cooccur in our language prime each other (e.g., cottage and cheese), and others suggest that concepts are represented by their semantic features or semantic properties. For example, the word dog has several semantic features, such as “is animate,” “has four legs,” and “barks,” and these features are assumed to be represented in the conceptual network.
بسیاری از مدلها و ایدههای پیوندگرایانه دیگر درباره نحوه بازنمایی دانش مفهومیوجود دارد. برخی پیشنهاد میکنند که کلماتی که در زبان ما وجود دارند، همدیگر را اول میکنند (مثلاً کلبه و پنیر)، و برخی دیگر پیشنهاد میکنند که مفاهیم با ویژگیهای معنایی یا ویژگیهای معنایی آنها نشان داده میشوند. به عنوان مثال، کلمه سگ دارای چندین ویژگی معنایی است، مانند «جاندار است»، «چهار پا دارد» و «پارس میکند» و فرض میشود که این ویژگیها در شبکه مفهومینشان داده میشوند.
Such models are confronted with the problem of activation: How many features have to be stored or activated for a person to recognize a dog? For example, we can recognize that a Basenji is a dog even though it does not bark, and we can identify a barking dog that we cannot see. In addition, some words are more “prototypical” examples of a semantic category than others, as reflected in our recognition and production of these words. When we are asked to generate bird names, for example, the word robin might come to mind as one of the first examples, whereas a word like ostrich might not come up at all, depending on our personal experience.
چنین مدلهایی با مشکل فعال سازی مواجه میشوند: چند ویژگی باید ذخیره یا فعال شود تا یک فرد سگ را بشناسد؟ برای مثال، میتوانیم تشخیص دهیم که باسنجی سگ است، حتی اگر پارس نمیکند، و میتوانیم سگ پارسی را که نمیتوانیم ببینیم، شناسایی کنیم. بهعلاوه، برخی از کلمات نمونههای «نمونهای» بیشتر از یک مقوله معنایی هستند که در شناخت و تولید این واژهها منعکس میشود. برای مثال، وقتی از ما خواسته میشود نام پرندگان را تولید کنیم، ممکن است کلمه رابین به عنوان یکی به ذهن خطور کند. از نمونههای اول، در حالی که ممکن است کلمه ای مانند شترمرغ، بسته به تجربه شخصی ما، اصلاً به میان نیاید.
In sum, it remains a matter of intense investigation how word meanings are represented. No matter how, though, everyone agrees that a mental store of word meanings is crucial to normal language comprehension and production. Evidence from patients with brain damage and from functional brain-imaging studies is still revealing how the mental lexicon and conceptual knowledge may be organized (see Box 11.3).
در مجموع، چگونگی بازنمایی معانی واژهها موضوعی است که به شدت مورد بررسی قرار میگیرد. مهم نیست که چگونه، اما، همه موافقند که ذخیره ذهنی معانی کلمات برای درک و تولید زبان عادی بسیار مهم است. شواهد از بیماران مبتلا به آسیب مغزی و مطالعات تصویربرداری عملکردی مغز هنوز نشان میدهد که واژگان ذهنی و دانش مفهومیچگونه ممکن است سازماندهی شوند (به کادر ۱۱.۳ مراجعه کنید).
Neural Substrates of the Mental Lexicon
بسترهای عصبی واژگان ذهنی
By observing the patterns of deficits in patients with language disabilities, we can infer a number of things about the functional organization of the mental lexicon. Consider that patients with Wernicke’s aphasia make errors in speech production that are known as semantic paraphasias. For example, they might use the word horse when they mean cow. Patients with deep dyslexia make similar errors in reading: They might read the word horse where cow is written.
با مشاهده الگوهای نقایص در بیماران مبتلا به ناتوانی زبانی، میتوان چیزهای زیادی را در مورد سازماندهی عملکردی واژگان ذهنی استنباط کرد. در نظر بگیرید که بیماران مبتلا به آفازی Wernicke خطاهایی در تولید گفتار مرتکب میشوند که به عنوان پارافازی معنایی شناخته میشوند. به عنوان مثال، آنها ممکن است از کلمه اسب در هنگام معنی گاو استفاده کنند. بیماران مبتلا به نارساخوانی عمیق اشتباهات مشابهی را در خواندن مرتکب میشوند: ممکن است کلمه اسب را در جایی که گاو نوشته شده است بخوانند.
FIGURE 11.6 Semantic network.
Words that have strong associative or semantic relations are closer together in the network (e.g., car and truck) than are words that have no such relation (e.g., car and clouds). Semantically related words are colored similarly in the figure, and associatively related terms (e.g., fire truck and fire) are closely connected.
شکل ۱۱.۶ شبکه معنایی.
کلماتی که روابط تداعی یا معنایی قوی دارند در شبکه به هم نزدیکتر هستند (مانند ماشین و کامیون) تا کلماتی که چنین رابطه ای ندارند (مانند ماشین و ابر). کلمات مرتبط معنایی به طور مشابه در شکل رنگبندی شدهاند و اصطلاحات مرتبط (مانند ماشین آتش نشانی و آتشنشانی) نزدیک به هم مرتبط هستند.
BOX 11.3 / HOT SCIENCE
کادر ۱۱.۳ / علم داغ
Semantic Maps in the Brain!
نقشههای معنایی در مغز!
How is the storage of the mental lexicon, which includes the meanings (semantics), usage (syntax), and forms (spelling and sound patterns) of words, organized in the brain? Clues come from a variety of sources. Jack Gallant, Alexander Huth, and their colleagues at UC Berkeley (Huth et al., 2016) adapted their encoding-decoding technique (see Chapter 6) to investigate how the brain represents semantic information. They measured brain activity while student volunteers listened for 2 hours to stories such as those presented by The Moth Radio Hour.
ذخیره واژگان ذهنی که شامل معانی (معناشناسی)، کاربرد (نحو) و اشکال (الگوهای املایی و صوتی) کلمات است، چگونه در مغز سازماندهی شده است؟ سرنخها از منابع مختلفی به دست میآیند. جک گالانت، الکساندر هوث و همکارانشان در دانشگاه کالیفرنیا برکلی (Huth و همکاران، ۲۰۱۶) تکنیک رمزگذاری-رمزگشایی خود را (به فصل ۶ مراجعه کنید) برای بررسی نحوه نمایش اطلاعات معنایی توسط مغز تطبیق دادند. آنها فعالیت مغز را اندازه گیری کردند در حالی که داوطلبان دانش آموز به مدت ۲ ساعت به داستانهایی مانند آنچه که توسط The Moth Radio Hour ارائه شده بود گوش دادند.
To study how the participants’ brain activity related to what was happening in the stories over time, the audio stories were first coded by creating a transcript. Then, phonemes and words were aligned from the transcript to their times of occurrence in the audio recordings. The researchers identified the semantic features of each word in the stories and computed their natural co-occurrence with a set of 985 common words in the English language. For example, words from the same semantic domain, such as month and week, tend to have similar co-occurrence values (correlation 0.74), whereas words from different domains, such as month and tall, do not (correlation 0.22). Next, the researchers analyzed how the 985 semantic features affected the activity in each voxel of the whole-brain fMRI data obtained while the participants listened to the story.
برای بررسی نحوه ارتباط فعالیت مغز شرکتکنندگان با آنچه در داستانها در طول زمان اتفاق میافتد، ابتدا داستانهای صوتی با ایجاد یک رونوشت کدگذاری شدند. سپس، واجها و واژهها از رونوشت تا زمان وقوع آنها در ضبطهای صوتی همتراز شدند. محققان ویژگیهای معنایی هر کلمه را در داستانها شناسایی کردند و همزمانی طبیعی آنها را با مجموعهای از ۹۸۵ کلمه رایج در زبان انگلیسی محاسبه کردند. به عنوان مثال، کلماتی از حوزه معنایی یکسان، مانند ماه و هفته، تمایل دارند مقادیر همزمانی مشابهی داشته باشند (همبستگی ۰.۷۴)، در حالی که کلمات از حوزههای مختلف، مانند ماه و بلند، دارای مقادیر مشابه هستند (همبستگی ۰.۲۲). در مرحله بعد، محققان بررسی کردند که چگونه ۹۸۵ ویژگی معنایی بر فعالیت هر وکسل از دادههای fMRI کل مغزی که شرکتکنندگان به داستان گوش میدادند، تأثیر میگذارند.
This method yielded a voxel-wise model describing how words appearing in the stories influenced BOLD signals; from this information, the researchers constructed a semantic map called an encoding model, compiled from a group of several participants listening to the same story. To validate the encoding model-that is, to see whether it could be used to predict brain activity-the model was used to predict the related brain activations while one of the students listened to a new story.
این روش یک مدل وکسل به همراه داشت که توضیح میداد چگونه کلمات ظاهر شده در داستانها بر سیگنالهای BOLD تأثیر میگذارند. از این اطلاعات، محققان یک نقشه معنایی به نام مدل رمزگذاری ساختند که از گروهی متشکل از چندین شرکتکننده که به همان داستان گوش میدادند، گردآوری شد. برای اعتبارسنجی مدل رمزگذاری – یعنی برای دیدن اینکه آیا میتوان از آن برای پیشبینی فعالیت مغز استفاده کرد یا خیر، این مدل برای پیشبینی فعالیتهای مرتبط مغز در حالی که یکی از دانشآموزان به داستان جدیدی گوش میداد استفاده شد.
The researchers note that this methodology is a data- driven approach: The brain is activated by a large variety of word inputs, and a variety of methods are used to understand how the resulting brain activity clusters. What did this technical tour de force reveal? Figure 11.7a shows a color- coded map of major dimensions separating, for example, perceptual and physical categories (tactile, locational in green, turquoise, blue, and brown colors) from human-related categories (social, emotional, violent in red, purple, and pink colors) and a cartoon illustration of words on the surface of the brain (Figure 11.7b). For an interactive version of the semantic map, see http://www.gallantlab.org/huth2016.
محققان خاطرنشان میکنند که این روش یک رویکرد مبتنی بر داده است: مغز با انواع ورودیهای کلمه فعال میشود و روشهای مختلفی برای درک چگونگی خوشهبندی فعالیت مغز در نتیجه استفاده میشود. این تور فنی چه چیزی را فاش کرد؟ شکل ۱۱.7a یک نقشه کد رنگی از ابعاد اصلی را نشان میدهد که به عنوان مثال، مقولههای ادراکی و فیزیکی (لمسی، مکان در رنگهای سبز، فیروزه ای، آبی و قهوه ای) را از مقولههای مربوط به انسان (اجتماعی، عاطفی، خشونت آمیز در قرمز) جدا میکند. رنگهای بنفش و صورتی) و یک تصویر کارتونی از کلمات روی سطح مغز (شکل ۱۱.7b). برای نسخه تعاملی نقشه معنایی، به http://www.gallantlab.org/huth2016 مراجعه کنید.
Several interesting findings came from this study. First, the representation of semantic information in these maps was not restricted to the left perisylvian cortex, nor even to the left hemisphere, but rather was observed throughout both hemispheres, inconsistent with work in patients with focal brain damage, which suggests that semantic representations are lateralized to the left hemisphere. The findings were also quite consistent across individuals, hinting that the anatomical connectivity or cortical cytoarchitectonics constrains the organization of these high-level semantic representations. One of the most fascinating aspects of this work is that if maps such as these are created for a wide variety of information, it may be possible in the future to decode brain activity into meaning or, as we discussed in Chapter 6, to read minds.
چندین یافته جالب از این مطالعه به دست آمد. اول، نمایش اطلاعات معنایی در این نقشهها نه محدود به قشر پریسیلویان چپ و نه حتی به نیمکره چپ بود، بلکه در سرتاسر هر دو نیمکره مشاهده شد، که با کار در بیماران مبتلا به آسیب مغزی کانونی ناسازگار است، که نشان میدهد بازنمایی معنایی جانبی به نیمکره چپ. یافتهها همچنین در بین افراد کاملاً سازگار بود، و اشاره میکند که اتصال آناتومیکی یا cytoarchitectonics قشری سازماندهی این نمایشهای معنایی سطح بالا را محدود میکند. یکی از جذابترین جنبههای این کار این است که اگر نقشههایی از این دست برای طیف گستردهای از اطلاعات ایجاد شوند، ممکن است در آینده رمزگشایی فعالیت مغز به معنا یا همانطور که در فصل ۶ بحث کردیم، خواندن ذهنها امکانپذیر باشد. .
FIGURE 11.7 A semantic map compiled from a group of participants.
(a) The representation of semantic information was observed throughout both hemispheres. The 12 different colors represent different word categories. These patterns appear to be relatively consistent across individuals. (b) This cartoon illustration color-codes words by category on the surface of the brain.
شکل ۱۱.۷ یک نقشه معنایی که از گروهی از شرکت کنندگان تهیه شده است.
(الف) نمایش اطلاعات معنایی در هر دو نیمکره مشاهده شد. ۱۲ رنگ مختلف نشان دهنده دسته بندی کلمات مختلف است. به نظر میرسد این الگوها در بین افراد نسبتاً سازگار هستند. (ب) این تصویر کارتونی کلمات را بر اساس دسته بندی در سطح مغز کد رنگی میکند.
Patients with progressive semantic dementia initially show impairments in the conceptual system, but other mental and language abilities are spared. For example, these patients can still understand and produce the syntactic structure of sentences. This impairment has been associated with progressive damage to the temporal lobes, mostly on the left side of the brain. But the superior regions of the temporal lobe that are important for hearing and speech processing are spared (we discuss these areas in Section 11.3).
بیماران مبتلا به دمانس معنایی پیشرونده در ابتدا اختلالاتی را در سیستم مفهومی نشان میدهند، اما سایر تواناییهای ذهنی و زبانی در امان هستند. به عنوان مثال، این بیماران هنوز هم میتوانند ساختار نحوی جملات را درک کرده و تولید کنند. این اختلال با آسیب پیشرونده به لوبهای تمپورال، بیشتر در سمت چپ مغز همراه است. اما نواحی فوقانی لوب گیجگاهی که برای شنوایی و پردازش گفتار مهم هستند در امان مانده اند (ما در بخش ۱۱.۳ در مورد این مناطق بحث میکنیم).
Patients with semantic dementia have difficulty as- signing objects to a semantic category. In addition, they often name a category when asked to name a picture; when viewing a picture of a horse, they will say “animal,” and a picture of a robin will produce “bird.” Neurological evidence from a variety of disorders provides support for the semantic-network idea because related meanings are substituted, confused, or lumped together, as we would predict from the degrading of a system of interconnected nodes that specifies meaning relation.
بیماران مبتلا به زوال عقل معنایی در انتساب اشیا به یک دسته معنایی مشکل دارند. علاوه بر این، وقتی از آنها خواسته میشود که یک عکس را نام ببرند، اغلب یک دسته را نام میبرند. هنگام مشاهده یک عکس از یک اسب، آنها میگویند “حیوان”، و تصویر یک رابین “پرنده” تولید میکند. شواهد عصبشناختی از انواع اختلالات، از ایده شبکه معنایی پشتیبانی میکند، زیرا معانی مرتبط جایگزین، اشتباه میشوند یا با هم ترکیب میشوند، همانطور که ما از تخریب سیستمیاز گرههای به هم پیوسته که رابطه معنا را مشخص میکند، پیشبینی میکنیم.
In the 1970s and early 1980s, Elizabeth Warrington and her colleagues performed groundbreaking studies on the organization of conceptual knowledge in the brain, originating with her studies involving perceptual disabilities in patients possessing unilateral cerebral lesions. Some of these studies were done on patients who would now be classified as suffering from semantic dementia. We discussed these studies in some detail in Chapter 6, so we will only summarize them here.
در دهه ۱۹۷۰ و اوایل دهه ۱۹۸۰، الیزابت وارینگتون و همکارانش مطالعات پیشگامانه ای را در مورد سازماندهی دانش مفهومیدر مغز انجام دادند که نشات گرفته از مطالعات او در مورد ناتوانیهای ادراکی در بیماران دارای ضایعات مغزی یک طرفه بود. برخی از این مطالعات بر روی بیمارانی انجام شد که اکنون به عنوان مبتلا به دمانس معنایی طبقه بندی میشوند. ما این مطالعات را با جزئیات در فصل ۶ مورد بحث قرار دادیم، بنابراین ما فقط آنها را در اینجا خلاصه میکنیم.
In Chapter 6 we discussed category-specific agnosias and how they might reflect the organization of semantic- memory (conceptual) knowledge. Warrington and her colleagues found that semantic-memory problems fell into semantic categories. They suggested that the patients’ problems were reflections of the types of information stored with different words in the semantic network: Whereas biological categories (fruits, foods, animals) rely more on physical properties or visual features (e.g., what is the color of an apple?), human-made objects are identified by their functional properties (e.g., how do we use a hammer?).
در فصل ۶ ما در مورد آگنوزیاهای دسته بندی خاص و اینکه چگونه آنها ممکن است سازماندهی دانش حافظه معنایی (مفهومی) را منعکس کنند، بحث کردیم. وارینگتون و همکارانش دریافتند که مشکلات حافظه معنایی به دستههای معنایی تقسیم میشوند. آنها پیشنهاد کردند که مشکلات بیماران بازتابی از انواع اطلاعات ذخیره شده با کلمات مختلف در شبکه معنایی است: در حالی که دسته بندیهای بیولوژیکی (میوهها، غذاها، حیوانات) بیشتر بر ویژگیهای فیزیکی یا ویژگیهای بصری متکی هستند (مثلاً رنگ یک سیب؟)، اشیاء ساخته شده توسط انسان با ویژگیهای عملکردی آنها شناسایی میشوند (به عنوان مثال، چگونه از چکش استفاده کنیم؟).
Since these original observations by Warrington, many cases of patients with category-specific deficits have been reported, and there appears to be a striking correspondence between the sites of lesions and the type of semantic deficit. The patients whose impairment involved living things had lesions that included the inferior and medial temporal cortex, and often these lesions were located anteriorly. The anterior inferior temporal cortex is located close to areas of the brain that are crucial for visual object perception, and the medial temporal lobe contains important relay projections from association cortex to the hippocampus, a structure that, as you might remember from Chapter 9, has an important function in the encoding of information in long-term memory. Furthermore, the inferior temporal cortex is the end station for the “what” information, or the object recognition stream, in vision.
از زمان این مشاهدات اولیه توسط وارینگتون، موارد بسیاری از بیماران با کمبودهای دسته بندی خاص گزارش شده است، و به نظر میرسد که مطابقت قابل توجهی بین محل ضایعات و نوع نقص معنایی وجود دارد. بیمارانی که آسیب آنها شامل موجودات زنده بود، ضایعاتی داشتند که شامل قشر گیجگاهی تحتانی و میانی بود و اغلب این ضایعات در جلو قرار داشتند. قشر گیجگاهی تحتانی قدامینزدیک به نواحی از مغز قرار دارد که برای ادراک اشیاء بصری حیاتی هستند، و لوب گیجگاهی میانی حاوی برجستگیهای مهم رله ای از قشر ارتباطی به هیپوکامپ است، ساختاری که، همانطور که ممکن است از فصل ۹ به یاد داشته باشید، دارای آن است. یک عملکرد مهم در رمزگذاری اطلاعات در حافظه بلند مدت. علاوه بر این، قشر گیجگاهی تحتانی ایستگاه پایانی برای اطلاعات “چه” یا جریان تشخیص شی در بینایی است.
Less is known about the localization of lesions in patients who show greater impairment for human-made things, simply because fewer of these patients have been identified and studied. But left frontal and parietal areas appear to be involved in this kind of semantic deficit. These areas are close to or overlap with areas of the brain that are important for sensorimotor functions, so they are likely to be involved in the representation of actions that can be undertaken when human-made artifacts such as tools are being used.
اطلاعات کمتری در مورد محلی سازی ضایعات در بیمارانی که آسیب بیشتری را برای چیزهای ساخته شده توسط انسان نشان میدهند، تنها به این دلیل که تعداد کمتری از این بیماران شناسایی و مطالعه شده اند، شناخته شده است. اما به نظر میرسد که نواحی فرونتال و آهیانه چپ در این نوع نقص معنایی دخیل هستند. این نواحی نزدیک یا همپوشانی با مناطقی از مغز دارند که برای عملکردهای حسی-حرکتی مهم هستند، بنابراین احتمالاً در نمایش اقداماتی که میتوان در هنگام استفاده از مصنوعات ساختهشده انسان مانند ابزارها انجام داد، دخیل هستند.
A challenge to Warrington’s hypothesis about bio- logical and human-made categories comes from observations by Alfonso Caramazza and others (e.g., Caramazza & Shelton, 1998), who have suggested that Warrington’s studies in patients did not always use well-controlled linguistic materials. For example, when comparing living things versus human-made things, some studies did not control the stimulus materials to ensure that the objects tested in each category were matched on qualities like visual complexity, visual similarity across objects, frequency of use, and the familiarity of objects. If these variables differed widely between the categories, then strong conclusions about differences in their representation in a semantic network could not be drawn.
چالشی برای فرضیه وارینگتون در مورد مقولههای بیولوژیکی و ساخت انسان از مشاهدات آلفونسو کارامازا و دیگران (به عنوان مثال، کارامازا و شلتون، ۱۹۹۸) ناشی میشود که پیشنهاد کردهاند در مطالعات وارینگتون بر روی بیماران همیشه از مواد زبانشناختی به خوبی کنترلشده استفاده نشده است. به عنوان مثال، هنگام مقایسه موجودات زنده با چیزهای ساخته شده توسط انسان، برخی از مطالعات مواد محرک را کنترل نکردند تا اطمینان حاصل شود که اشیاء آزمایش شده در هر دسته از نظر کیفیتهایی مانند پیچیدگی بصری، شباهت بصری بین اشیاء، فراوانی استفاده و آشنایی مطابقت دارند. از اشیاء اگر این متغیرها به طور گسترده بین دستهها تفاوت داشتند، در این صورت نمیتوان نتیجهگیری قوی در مورد تفاوت در بازنمایی آنها در یک شبکه معنایی گرفت.
Caramazza has proposed an alternative theory, in which the semantic network is organized along the conceptual categories of animacy and inanimacy. He argues that the selective damage that has been observed in brain- damaged patients, as in the studies of Warrington and others, genuinely reflects “evolutionarily adapted domain- specific knowledge systems that are subserved by distinct neural mechanisms” (Caramazza & Shelton, 1998, p. 1).
کارامازا یک نظریه جایگزین ارائه کرده است که در آن شبکه معنایی در امتداد مقولههای مفهومیجانداری و بی جانی سازماندهی میشود. او استدلال میکند که آسیب انتخابی که در بیماران آسیبدیده مغزی مشاهده شده است، مانند مطالعات وارینگتون و دیگران، واقعاً منعکسکننده «سیستمهای دانش خاص حوزه تطبیقشده تکاملی است که تحت تأثیر مکانیسمهای عصبی متمایز قرار میگیرند» (Caramazza & Shelton، ۱۹۹۸، ص ۱).
In the 1990s, imaging studies in neurologically un- impaired participants looked further into the organization of semantic representations. Alex Martin and his colleagues (1996) at the National Institute of Mental Health (NIMH) conducted studies using PET and fMRI. Their findings reveal how the intriguing dissociations described in impaired patients can also be identified in neurologically normal brains. When participants read the names of or answered questions about animals, or when they named pictures of animals, the more lateral aspects of the fusiform gyrus (on the brain’s ventral surface) and the superior temporal sulcus were activated. But naming animals also activated a brain area associated with the early stages of visual processing-namely, the left medial occipital lobe.
در دهه ۱۹۹۰، مطالعات تصویربرداری در شرکتکنندگانی که از نظر عصبی ناقص بودند، سازماندهی بازنماییهای معنایی را بیشتر مورد بررسی قرار دادند. الکس مارتین و همکارانش (۱۹۹۶) در موسسه ملی سلامت روان (NIMH) مطالعاتی را با استفاده از PET و fMRI انجام دادند. یافتههای آنها نشان میدهد که چگونه میتوان تفکیکهای جالب توصیف شده در بیماران آسیبدیده را در مغزهای نرمال عصبی نیز شناسایی کرد. هنگامیکه شرکت کنندگان نام حیوانات را میخواندند یا به سؤالات مربوط به آنها پاسخ میدادند، یا زمانی که تصاویر حیوانات را نام میبردند، جنبههای جانبی شکنج دوکی شکل (روی سطح شکمیمغز) و شیار گیجگاهی فوقانی فعال میشد. اما نامگذاری حیوانات همچنین یک ناحیه مغز مرتبط با مراحل اولیه پردازش بینایی را فعال میکند – یعنی لوب اکسیپیتال داخلی سمت چپ.
In contrast, identifying and naming tools were associated with activation in the more medial aspect of the fusiform gyrus, the left middle temporal gyrus, and the left premotor area, a region that is also activated by imagining hand movements. These findings are consistent with the idea that in our brains, conceptual representations of living things versus human-made tools rely on separable neural circuits engaged in processing of perceptual versus functional information.
در مقابل، ابزارهای شناسایی و نامگذاری با فعالسازی در جنبه میانیتر شکنج دوکی شکل، شکنج میانی گیجگاهی چپ، و ناحیه پیش حرکتی چپ، منطقهای که با تصور حرکات دست نیز فعال میشود، همراه بود. این یافتهها با این ایده مطابقت دارد که در مغز ما، بازنمایی مفهومیموجودات زنده در مقابل ابزارهای ساخته شده توسط انسان بر مدارهای عصبی قابل جداسازی متکی است که در پردازش اطلاعات ادراکی در مقابل عملکردی نقش دارند.
Other studies of the representation of conceptual information indicate that there is a network that connects the posterior fusiform gyrus in the inferior temporal lobe to the left anterior temporal lobes. Lorraine Tyler and her colleagues at the University of Cambridge (2011) have studied the representation and processing of concepts of living and nonliving things in patients with brain lesions to the anterior temporal lobes and in unimpaired participants using fMRI, EEG, and MEG measures. In these studies, participants are typically asked to name pictures of living things (e.g., a tiger) and nonliving things (e.g., a knife). Further, the level at which these objects should be named is varied: Participants are asked to name the pictures at either the specific level (e.g., tiger or knife) or the domain-general level (e.g., living or nonliving).
مطالعات دیگر در مورد نمایش اطلاعات مفهومینشان میدهد که شبکه ای وجود دارد که شکنج دوکی شکل خلفی در لوب گیجگاهی تحتانی را به لوبهای گیجگاهی قدامیچپ متصل میکند. لورین تایلر و همکارانش در دانشگاه کمبریج (۲۰۱۱) بازنمایی و پردازش مفاهیم موجودات زنده و غیرزنده را در بیماران مبتلا به ضایعات مغزی در لوبهای گیجگاهی قدامیو در شرکتکنندگان بدون آسیب با استفاده از اندازهگیریهای fMRI، EEG و MEG مطالعه کردند. در این مطالعات، معمولاً از شرکت کنندگان خواسته میشود که تصاویر موجودات زنده (مانند ببر) و غیر زنده (مانند چاقو) را نام ببرند. علاوه بر این، سطحی که این اشیاء باید در آن نامگذاری شوند متفاوت است: از شرکت کنندگان خواسته میشود تا تصاویر را در سطح خاصی (مانند ببر یا چاقو) یا سطح دامنه عمومی(مانند زنده یا غیرزنده) نام ببرند.
Tyler and colleagues suggest that naming at the specific level requires retrieval and integration of more detailed semantic information than does naming at the domain-general level. For example, whereas naming a picture at a domain-general level requires activation of only a subset of features (e.g., for animals: “has legs,” “has fur,” “has eyes,” etc.), naming at the specific level requires retrieval and integration of additional and more precise features, including size and shape. For example, to distinguish a tiger from a house cat, panther, or zebra, features such as “is large,” “has stripes,” and “has claws” have to be retrieved and integrated as well.
تایلر و همکارانش پیشنهاد میکنند که نامگذاری در سطح خاص نیازمند بازیابی و ادغام اطلاعات معنایی دقیقتر از نامگذاری در سطح عمومیدامنه است. به عنوان مثال، در حالی که نامگذاری یک تصویر در سطح دامنه عمومینیازمند فعال سازی تنها زیرمجموعه ای از ویژگیها است (به عنوان مثال، برای حیوانات: “پا دارد”، “خز دارد”، “چشم دارد،” و غیره)، نام گذاری در قسمت خاص. سطح نیاز به بازیابی و ادغام ویژگیهای اضافی و دقیق تر، از جمله اندازه و شکل دارد. به عنوان مثال، برای تشخیص یک ببر از یک گربه خانگی، پلنگ یا گورخر، ویژگیهایی مانند “بزرگ است”، “راه راه دارد” و “چنگال دارد” باید بازیابی و ادغام شوند.
Interestingly, as can be seen in Figure 11.8, where- as nonliving things (eg, a knife) can be represented by only a few features, living things (e.g., a tiger) are represented by many features. Thus, it may be more difficult to select the feature that distinguishes living things from each other (e.g., a tiger from a zebra) than it is to distinguish nonliving things (e.g., a knife from a spoon). This model suggests that the dissociation between naming of nonliving and living things in patients with category- specific deficits may also be due to the complexity of the features that help distinguish one thing from another.
جالب توجه است، همانطور که در شکل ۱۱.۸ مشاهده میشود، از آنجایی که چیزهای غیرزنده (مثلاً چاقو) را میتوان تنها با چند ویژگی نشان داد، موجودات زنده (مثلاً ببر) با ویژگیهای بسیاری نشان داده میشوند. بنابراین، ممکن است انتخاب ویژگیای که موجودات زنده را از یکدیگر متمایز میکند (مثلاً ببر از گورخر) دشوارتر از تشخیص چیزهای غیرزنده (مثلاً چاقو از قاشق) باشد. این مدل نشان میدهد که تفکیک بین نامگذاری موجودات غیرزنده و زنده در بیماران مبتلا به نقصهای دستهبندی خاص ممکن است به دلیل پیچیدگی ویژگیهایی باشد که به تمایز یک چیز از چیز دیگر کمک میکند.
FIGURE 11.8 Hypothetical conceptual structures for tiger and knife.
(a) One model suggests that living things are represented by many features that are not distinct, whereas nonliving things can be represented by only a few features that are distinct. In this hypothetical-concept structure, the thickness of the straight lines correlates with the strength of the features, and the thickness of the boxes’ borders correlates with the distinctness of the features. Although the tiger has many features, it has fewer features that distinguish it from other living things, whereas the knife has more distinct features that separate it from other possible objects. (b) Following brain damage resulting in aphasia, patients find it harder to identify the distinctive features for living things (left) than for nonliving objects (right).
شکل ۱۱.۸ ساختارهای مفهومی فرضی برای ببر و چاقو.
(الف) یک مدل نشان میدهد که موجودات زنده با بسیاری از ویژگیهایی که متمایز نیستند نشان داده میشوند، در حالی که موجودات غیرزنده را میتوان تنها با چند ویژگی متمایز نشان داد. در این ساختار مفهومیفرضی، ضخامت خطوط مستقیم با استحکام ویژگیها و ضخامت حاشیه جعبهها با متمایز بودن ویژگیها ارتباط دارد. اگرچه ببر ویژگیهای زیادی دارد، اما ویژگیهای کمتری دارد که آن را از سایر موجودات زنده متمایز میکند، در حالی که چاقو دارای ویژگیهای متمایز تری است که آن را از سایر اشیاء ممکن جدا میکند. (ب) به دنبال آسیب مغزی که منجر به آفازی میشود، تشخیص ویژگیهای متمایز موجودات زنده (سمت چپ) برای بیماران دشوارتر از اشیاء غیر زنده (راست) است.
FIGURE 11.9 The anterior temporal lobes are involved in naming living things.
When identifying the tiger at the less complex domain level (living things), activity was restricted to more posterior occipitotemporal sites (green bars). Naming the same object stimulus at the specific level (blue bars) was associated with activity in both posterior occipitotemporal and anteromedial temporal lobes.
شکل ۱۱.۹ لوبهای تمپورال قدامی در نامگذاری موجودات زنده نقش دارند.
هنگام شناسایی ببر در سطح دامنه کمتر پیچیده (موجودات زنده)، فعالیت به مکانهای اکسیپیتومپورال خلفی (میلههای سبز) محدود شد. نامگذاری یک محرک شی در سطح خاص (نوارهای آبی) با فعالیت در هر دو لوب گیجگاهی خلفی و قدامیمیانی همراه بود.
Tyler and colleagues further observed that patients with lesions to the anterior temporal lobes cannot reliably name living things at the specific level (e.g., tiger or zebra), indicating that the retrieval and integration of more detailed semantic information is impaired. Functional MRI studies in unimpaired participants showed greater activation in the anterior temporal lobe with specific-level naming of living things than with domain- level naming (Figure 11.9).
تایلر و همکارانش همچنین مشاهده کردند که بیماران مبتلا به ضایعات در لوبهای گیجگاهی قدامینمیتوانند موجودات زنده را به طور قابل اعتماد در سطح خاصی نام ببرند (مانند ببر یا گورخر)، که نشان میدهد بازیابی و ادغام اطلاعات معنایی دقیق تر مختل شده است. مطالعات MRI عملکردی در شرکتکنندگان بدون آسیب، فعالسازی بیشتری را در لوب تمپورال قدامیبا نامگذاری در سطح خاص موجودات زنده نسبت به نامگذاری در سطح دامنه نشان داد (شکل ۱۱.۹).
Finally, studies with MEG and EEG have revealed interesting details about the timing of the activation of conceptual knowledge. Activation of the perceptual features occurs in visual cortex within the first 100 ms after a picture is presented; activation of more detailed semantic representations occurs in the posterior and anterior temporal cortex between 150 and 250 ms; and starting around 300 ms, participants are able to name the specific object that is depicted in the picture, which requires the Comprehension: retrieval and integration of detailed semantic information that is unique to the specific object.
در نهایت، مطالعات با MEG و EEG جزئیات جالبی را در مورد زمان فعال شدن دانش مفهومینشان داده است. فعال شدن ویژگیهای ادراکی در قشر بینایی در ۱۰۰ میلی ثانیه اول پس از ارائه تصویر رخ میدهد. فعال سازی نمایشهای معنایی دقیق تر در قشر تمپورال خلفی و قدامیبین ۱۵۰ تا ۲۵۰ میلی ثانیه رخ میدهد. و با شروع حدود ۳۰۰ میلیثانیه، شرکتکنندگان میتوانند شی خاصی را که در تصویر نشان داده شده است، نام ببرند، که نیازمند درک: بازیابی و ادغام اطلاعات معنایی دقیق است که منحصر به یک شی خاص است.
TAKE-HOME MESSAGES
پیامهای اصلی
▪️The mental lexicon is a store of information about words that includes semantic information, syntactic information, and the details of word forms.
▪️فرهنگ لغت ذهنی، ذخیره ای از اطلاعات در مورد کلمات است که شامل اطلاعات معنایی، اطلاعات نحوی و جزئیات فرمهای کلمه است.
▪️ A morpheme is the smallest meaningful unit of language. A phoneme is the smallest unit of sound that makes a difference to meaning.
▪️ تکواژ کوچکترین واحد معنادار زبان است. واج کوچکترین واحد صوت است که در معنا تفاوت ایجاد میکند.
▪️ Syntax is the way in which words in a particular language are organized into grammatically permitted sentences.
▪️نحو روشی است که در آن کلمات در یک زبان خاص در جملات مجاز دستوری سازماندهی میشوند.
▪️Grammar is the collection of structural rules that govern the composition of words, phrases, and sentences in a particular natural language.
▪️ گرامر مجموعه قواعد ساختاری است که بر ترکیب کلمات، عبارات و جملات در یک زبان طبیعی خاص حاکم است.
▪️ Patients with neurological damage may name an item’s category or a semantically related word instead of the item (e.g., “animal” for “horse”), which supports the idea that the mental lexicon contains semantic networks of words having related meanings clustered together.
▪️ بیماران مبتلا به آسیب عصبی ممکن است به جای آن مورد، دسته یک مورد یا یک کلمه مرتبط معنایی را نام ببرند (به عنوان مثال، “حیوان” برای “اسب”)، که از این ایده پشتیبانی میکند که واژگان ذهنی حاوی شبکههای معنایی کلماتی است که معانی مرتبط با هم دارند.
▪️ Categories of semantic information are represented in the left temporal lobe, with a progression from posterior to anterior for general to more specific information, respectively.
▪️ مقولههای اطلاعات معنایی در لوب گیجگاهی چپ، با پیشرفت از خلفی به قدامیبرای اطلاعات عمومیبه اطلاعات خاص تر، نشان داده میشوند.
۱۱.۳ Language Comprehension: Early Steps
۱۱.۳ درک زبان: مراحل اولیه
The brain uses some of the same processes to understand both spoken and written language, but there are also some striking differences in how spoken and written inputs are analyzed. When attempting to understand spoken words (Figure 11.10), the listener has to decode the acoustic input. The result of this acoustic analysis is translated into a phonological code because, as discussed in the previous section, that is how the lexical representations of auditory word forms are stored in the mental lexicon. The representations in the mental lexicon that match the auditory input can then be accessed (lexical access) and the best match selected (lexical selection). The selected word includes grammatical and semantic information stored with it in the mental lexicon; this information helps to specify how the word can be used in the given language. Finally, the word’s meaning (store of the lexical-semantic information) results in activation of the conceptual information.
مغز از برخی از فرآیندهای یکسان برای درک زبان گفتاری و نوشتاری استفاده میکند، اما تفاوتهای قابل توجهی در نحوه تجزیه و تحلیل ورودیهای گفتاری و نوشتاری نیز وجود دارد. هنگام تلاش برای درک کلمات گفتاری (شکل ۱۱.۱۰)، شنونده باید ورودی صوتی را رمزگشایی کند. نتیجه این تحلیل آکوستیک به یک رمز واجی ترجمه میشود، زیرا همانطور که در بخش قبل بحث شد، به این ترتیب بازنماییهای واژگانی فرمهای کلمه شنیداری در واژگان ذهنی ذخیره میشوند. سپس میتوان به بازنماییهای موجود در واژگان ذهنی که با ورودی شنیداری منطبق است دسترسی داشت (دسترسی واژگانی) و بهترین تطابق را انتخاب کرد (انتخاب واژگانی). کلمه انتخاب شده شامل اطلاعات دستوری و معنایی ذخیره شده با آن در واژگان ذهنی است. این اطلاعات به تعیین نحوه استفاده از کلمه در زبان داده شده کمک میکند. در نهایت معنای کلمه (ذخیره اطلاعات لغوی – معنایی) باعث فعال شدن اطلاعات مفهومی میشود.
FIGURE 11.10 Schematic representation of the components involved in spoken- and written-language comprehension. Inputs can enter via either auditory (spoken-word; left) or visual (written-word; right) modalities. Notice that the information flows from the bottom up in this figure, from perceptual identification to “higher-level” word and meaning activation. So-called interactive models of language understanding would predict top-down influences to play a role as well. For example, activation at the word- form level would influence earlier perceptual processes. One could introduce this type of feedback into this schematic representation by making the arrows bidirectional.
شکل ۱۱.۱۰ نمایش شماتیک اجزای درگیر در درک زبان گفتاری و نوشتاری. ورودیها میتوانند از طریق روشهای شنیداری (کلمه گفتاری، چپ) یا دیداری (نوشتاری، راست) وارد شوند. توجه داشته باشید که اطلاعات در این شکل از پایین به بالا، از شناسایی ادراکی تا کلمه “سطح بالاتر” و به معنای فعال سازی جریان دارد. به اصطلاح مدلهای تعاملی درک زبان تأثیرات از بالا به پایین را برای ایفای نقش نیز پیشبینی میکنند. به عنوان مثال، فعال سازی در سطح کلمه شکل بر فرآیندهای ادراکی قبلی تأثیر میگذارد. میتوان این نوع بازخورد را با دو طرفه کردن فلشها در این نمایش شماتیک معرفی کرد.
The process of reading words shares at least the last two steps of linguistic analysis (i.e., lexical and meaning activation) with auditory comprehension, but, because of the different input modality, reading differs at the earlier processing steps, as illustrated in Figure 11.10. Given that the perceptual input is different, what are these earlier stages in reading? The first analysis step requires that the reader identify orthographic units (written symbols that represent the sounds or words of a language) from the visual input. These units may then be directly mapped onto orthographic word forms in the mental lexicon. Alternatively, the identified orthographic units might be translated into phonological units, which in turn activate the phonological word form in the mental lexicon as described for auditory comprehension.
فرآیند خواندن کلمات حداقل در دو مرحله آخر تحلیل زبانی (یعنی فعال سازی واژگانی و معنا) با درک شنیداری مشترک است، اما، به دلیل روش ورودی متفاوت، خواندن در مراحل پردازش قبلی، همانطور که در شکل ۱۱.۱۰ نشان داده شده است، متفاوت است. با توجه به اینکه ورودی ادراکی متفاوت است، این مراحل اولیه در خواندن چیست؟ اولین مرحله تحلیل مستلزم آن است که خواننده واحدهای املایی (نمادهای نوشتاری که اصوات یا کلمات یک زبان را نشان میدهند) را از ورودی بصری شناسایی کند. سپس این واحدها میتوانند مستقیماً بر روی فرمهای املایی در واژگان ذهنی نگاشت شوند. از طرف دیگر، واحدهای املایی شناسایی شده ممکن است به واحدهای واجی ترجمه شوند، که به نوبه خود شکل کلمه واجی را در واژگان ذهنی، همانطور که برای درک شنیداری توضیح داده شد، فعال میکند.
In this section we delve into the early processes involved in the understanding of spoken and written inputs of words. We begin with auditory processing and then turn to the different steps involved in the comprehension of reading, also known as visual language input.
در این بخش به فرآیندهای اولیه مربوط به درک ورودیهای گفتاری و نوشتاری کلمات میپردازیم. ما با پردازش شنوایی شروع میکنیم و سپس به مراحل مختلف درگیر در درک مطلب میپردازیم که به عنوان ورودی زبان بصری نیز شناخته میشود.
Spoken Input: Understanding Speech
ورودی گفتاری: درک گفتار
The input signal in spoken language is very different from that in written (or signed) language. Whereas for a reader it is immediately clear that the letters on a page are the physical signals of importance, a listener is confronted with a variety of sounds in the environment and has to identify and distinguish the relevant speech signals from other “noise.”
سیگنال ورودی در زبان گفتاری با زبان نوشتاری (یا علامتی) بسیار متفاوت است. در حالی که برای یک خواننده بلافاصله مشخص میشود که حروف روی یک صفحه سیگنالهای فیزیکی مهم هستند، شنونده با صداهای مختلف در محیط مواجه میشود و باید سیگنالهای گفتاری مربوطه را از سایر “نویزها” شناسایی و متمایز کند.
As introduced earlier, the building blocks of spoken language are phonemes. These are the smallest units of sound that make a difference to meaning; in the words cap and tap, for example, the only difference is the first phoneme (/k/ versus /t/). The English language uses about 40 phonemes (depending on the dialect); other languages may use more or fewer. Perception of phonemes is different for speakers of different languages. For example, in English, the sounds for the letters L and R are two different phonemes (the words late and rate mean different things, and we easily hear that difference). But in the Japanese language, L and R cannot be distinguished by adult native speakers, so these sounds are represented by only one phoneme.
همانطور که قبلاً معرفی شد، اجزای سازنده زبان گفتاری واج هستند. اینها کوچکترین واحدهای صدا هستند که در معنا تفاوت ایجاد میکنند. به عنوان مثال در کلمات cap و tap تنها تفاوت واج اول (/k/ در مقابل /t/) است. زبان انگلیسی از حدود ۴۰ واج (بسته به گویش) استفاده میکند. زبانهای دیگر ممکن است بیشتر یا کمتر استفاده کنند. درک واجها برای گویشوران زبانهای مختلف متفاوت است. به عنوان مثال، در زبان انگلیسی، صداهای حروف L و R دو واج متفاوت هستند (کلمات late و rate معنیهای متفاوتی دارند و ما به راحتی این تفاوت را میشنویم). اما در زبان ژاپنی، L و R را نمیتوان توسط افراد بزرگسال بومیتشخیص داد، بنابراین این صداها تنها با یک واج نشان داده میشوند.
Interestingly, infants have the perceptual ability to distinguish all possible phonemes during their first year of life. Patricia Kuhl and her colleagues at the University of Washington found that, initially, infants could distinguish between any phonemes presented to them; but during the first year of life, their perceptual sensitivities became tuned to the phonemes of the language they experienced on a daily basis (Kuhl et al., 1992). So, for example, Japanese infants can distinguish L from R sounds, but then lose that ability over time. American infants, on the other hand, do not lose that ability, but do lose the ability to distinguish phonemes that are not part of the English language.
جالب اینجاست که نوزادان توانایی ادراکی برای تشخیص تمام واجهای ممکن را در سال اول زندگی خود دارند. پاتریشیا کول و همکارانش در دانشگاه واشنگتن دریافتند که در ابتدا، نوزادان میتوانند بین هر واجی که به آنها ارائه میشود تمایز قائل شوند. اما در طول سال اول زندگی، حساسیتهای ادراکی آنها با واجهای زبانی که به طور روزانه تجربه میکردند تنظیم شد (کوهل و همکاران، ۱۹۹۲). بنابراین، به عنوان مثال، نوزادان ژاپنی میتوانند صداهای L را از R تشخیص دهند، اما با گذشت زمان این توانایی را از دست میدهند. از سوی دیگر، نوزادان آمریکایی این توانایی را از دست نمیدهند، اما توانایی تشخیص واجهایی که بخشی از زبان انگلیسی نیستند را از دست میدهند.
The babbling and crying sounds that infants articulate from ages 6 to 12 months grow more and more similar to the phonemes that they most frequently hear. By the time babies are 1 year old, they no longer produce (or perceive) nonnative phonemes. Learning another language often means encountering phonemes that don’t occur in a person’s native language, such as the guttural sounds of Dutch or the rolling R of Spanish. Such nonnative sounds can be difficult to learn, especially when we are older and our native phonemes have become automatic, and they make it challenging or impossible to lose our native accent. Perhaps that was Mark Twain’s problem when he quipped, “In Paris they just simply opened their eyes and stared when we spoke to them in French! We never did succeed in making those idiots understand their own language” (from The Innocents Abroad).
صداهای غرغر و گریه ای که نوزادان از سنین ۶ تا ۱۲ ماهگی بیان میکنند، بیشتر و بیشتر شبیه واجهایی است که اغلب میشنوند. تا زمانی که نوزادان به یک سالگی میرسند، دیگر واجهای غیربومیتولید نمیکنند (یا درک نمیکنند). یادگیری یک زبان دیگر اغلب به معنای مواجهه با واجهایی است که در زبان مادری فرد وجود ندارد، مانند صداهای روده ای هلندی یا R در زبان اسپانیایی. یادگیری چنین صداهای غیربومیمیتواند دشوار باشد، به خصوص زمانی که ما بزرگتر هستیم و واجهای بومیما خودکار شده اند، و از دست دادن لهجه مادری ما را چالش برانگیز یا غیرممکن میکنند. شاید این مشکل مارک تواین بود که به طعنه گفت: “در پاریس وقتی با آنها به زبان فرانسوی صحبت میکردیم، آنها به سادگی چشمان خود را باز کردند و خیره شدند! ما هرگز موفق نشدیم که آن احمقها زبان خودشان را بفهمند” (از بی گناهان خارج از کشور).
Recognizing that phonemes are the basic units of spoken language and that we all become experts in the phonemes of our native tongue does not eliminate all challenges for the listener. The listener’s brain must resolve additional difficulties involving the variability of the speech signal (e.g., male versus female speakers) and the fact that phonemes often do not appear as separate little chunks of information. Unlike the case for written words, auditory speech signals are not clearly segmented, and it can be difficult to discern where one word begins and another word ends.
تشخیص اینکه واجها واحدهای اساسی زبان گفتاری هستند و همه ما در واجهای زبان مادری خود متخصص میشویم، همه چالشها را برای شنونده برطرف نمیکند. مغز شنونده باید مشکلات اضافی مربوط به تغییر سیگنال گفتار را حل کند (مثلاً سخنرانان مرد در مقابل زن) و این واقعیت که واجها اغلب به عنوان تکههای کوچک جداگانه ای از اطلاعات ظاهر نمیشوند. برخلاف موردی که برای کلمات نوشتاری وجود دارد، سیگنالهای گفتار شنیداری به وضوح تقسیم بندی نمیشوند و تشخیص اینکه یک کلمه از کجا شروع میشود و یک کلمه دیگر به کجا ختم میشود دشوار است.
When we speak, we usually spew out about 15 phonemes per second, which adds up to about 180 words a minute. The puzzling thing is that we say these phonemes with no gaps or breaks; that is, there are no pauses be- tween words. Thus, the input signal in spoken language is very different from that in written language, where the letters and phonemes are neatly separated into word chunks. Two or more spoken words can be slurred together-speech sounds are often coarticulated-and there can be silences within words as well. The question of how we differentiate auditory sounds into separate words is known as the segmentation problem. This is illustrated in Figure 11.11, which shows the speech signal of the sentence “What do you mean?”
وقتی صحبت میکنیم، معمولاً در هر ثانیه حدود ۱۵ واج بیرون میریزیم که در هر دقیقه حدود ۱۸۰ کلمه جمع میشود. نکته گیج کننده این است که ما این واجها را بدون شکاف یا گسست میگوییم. یعنی هیچ مکثی بین کلمات وجود ندارد. بنابراین، سیگنال ورودی در زبان گفتاری بسیار متفاوت از زبان نوشتاری است، جایی که حروف و واجها به طور منظم به تکههای کلمه جدا میشوند. دو یا چند کلمه گفته شده را میتوان با هم نامفهوم کرد – صداهای گفتاری اغلب به هم پیوسته هستند – و همچنین ممکن است سکوت در کلمات وجود داشته باشد. این سوال که چگونه صداهای شنیداری را به کلمات جداگانه متمایز میکنیم به عنوان مشکل تقسیم بندی شناخته میشود. این در شکل ۱۱.۱۱ نشان داده شده است که سیگنال گفتاری جمله “منظور شما چیست؟”
How do we identify the spoken input, given this variability and the segmentation problem? Fortunately, other clues help us divide the speech stream into meaningful segments. One important clue is the prosodic information, which is what the listener derives from the speech rhythm and the pitch of the speaker’s voice. The speech rhythm comes from variation in the duration of words and the placement of pauses between them. Prosody is apparent in all spoken utterances, but it is perhaps most clearly illustrated when a speaker asks a question or emphasizes something. When asking a question, a speaker raises the frequency of the voice toward the end of the question; and when emphasizing a part of speech, a speaker raises the loudness of the voice and includes a pause after the critical part of the sentence.
با توجه به این تنوع و مشکل تقسیم بندی، چگونه ورودی گفتاری را شناسایی کنیم؟ خوشبختانه، سایر سرنخها به ما کمک میکنند تا جریان گفتار را به بخشهای معنادار تقسیم کنیم. یک سرنخ مهم، اطلاعات عروضی است که شنونده از ریتم گفتار و زیر و بم صدای گوینده به دست میآورد. ریتم گفتار از تغییر در مدت زمان کلمات و قرار دادن مکث بین آنها ناشی میشود. عروض در تمام گفتههای گفتاری آشکار است، اما شاید زمانی که گوینده سؤالی میپرسد یا بر چیزی تأکید میکند به وضوح بیشتر نشان داده میشود. هنگام پرسیدن سؤال، گوینده فرکانس صدا را در انتهای سؤال افزایش میدهد. و هنگام تأکید بر بخشی از گفتار، گوینده بلندی صدا را بالا میبرد و بعد از قسمت انتقادی جمله مکث میکند.
FIGURE 11.11 Speech waveform for the question “What do you mean?”
Note that the words “do you mean” are not physically separated. Even though the physical signal provides few cues to where the spoken words begin and end, the language system is able to parse them into the individual words for comprehension. The x-axis is time, and the y-axis is intensity of the speech signal.
شکل ۱۱.۱۱ شکل موج گفتار برای سوال «منظورت چیست؟»
توجه داشته باشید که کلمات “منظور شما” از نظر فیزیکی جدا نیستند. حتی اگر سیگنال فیزیکی نشانههای کمیبرای شروع و پایان کلمات گفتاری ارائه میدهد، سیستم زبان قادر است آنها را به تک تک کلمات برای درک تفکیک کند. محور x زمان است و محور y شدت سیگنال گفتار است.
In their research, Anne Cutler and colleagues at the Max Planck Institute for Psycholinguistics in the Netherlands (M. D. Tyler & Cutler, 2009) have revealed other clues that can be used to segment the continuous speech stream. These researchers showed that English listeners use syllables that carry an accent or stress (strong syllables) to establish word boundaries. For example, a word like lettuce, with stress on the first syllable, is usually heard as a single word and not as two words (“let us”). In contrast, words like invests, with stress on the last syllable, are usually heard as two words (“in vests”) and not as one word.
آن کاتلر و همکارانش در موسسه روانشناسی ماکس پلانک در هلند (M. D. Tyler & Cutler, 2009) در تحقیقات خود سرنخهای دیگری را نشان داده اند که میتوان از آنها برای تقسیم بندی جریان گفتار پیوسته استفاده کرد. این محققان نشان دادند که شنوندگان انگلیسی از هجاهایی استفاده میکنند که دارای لهجه یا تاکید هستند (هجاهای قوی) برای تعیین مرزهای کلمات. به عنوان مثال، کلمه ای مانند کاهو، با تاکید بر هجای اول، معمولاً به صورت یک کلمه شنیده میشود و نه به صورت دو کلمه («بگذار»). در مقابل، کلماتی مانند invests، با تاکید بر هجای آخر، معمولا به صورت دو کلمه (“در جلیقه”) شنیده میشوند و نه به عنوان یک کلمه.
NEURAL SUBSTRATES OF SPOKEN-WORD PROC- ESSING
بسترهای عصبی پردازش کلامی
Now we turn to the questions of where in the brain the processes of understanding speech signals may take place and which neural circuits and systems support them. From animal studies, studies in patients with brain lesions, and imaging and recording studies in humans (EEG and MEG), we know that the superior temporal cortex is important for sound perception.
اکنون به این سؤال میپردازیم که در کجای مغز فرآیندهای درک سیگنالهای گفتاری ممکن است انجام شود و کدام مدارها و سیستمهای عصبی از آنها پشتیبانی میکنند. از مطالعات حیوانی، مطالعات بر روی بیماران مبتلا به ضایعات مغزی، و مطالعات تصویربرداری و ضبط شده در انسان (EEG و MEG)، میدانیم که قشر گیجگاهی فوقانی برای درک صدا مهم است.
At the beginning of the 20th century, it was already well understood that some patients with bilateral lesions restricted to the superior parts of the temporal lobe had specific difficulties recognizing speech sounds, although they could process other sounds relatively normally. Because the patients had no difficulty in other aspects of language processing, their problem seemed to be restricted primarily to auditory or phonemic deficits, and the syndrome was termed pure word deafness. Today, with evidence from more recent studies in hand, we can more precisely determine where speech and nonspeech sounds are first distinguished in the brain.
در آغاز قرن بیستم، قبلاً به خوبی درک شده بود که برخی از بیماران با ضایعات دوطرفه محدود به قسمتهای فوقانی لوب گیجگاهی، مشکلات خاصی در تشخیص صداهای گفتار داشتند، اگرچه میتوانستند صداهای دیگر را به طور نسبتاً طبیعی پردازش کنند. از آنجایی که بیماران در سایر جنبههای پردازش زبان مشکلی نداشتند، به نظر میرسید مشکل آنها عمدتاً به نقص شنوایی یا واجی محدود میشد و این سندرم ناشنوایی کلمه خالص نامیده میشد. امروزه، با شواهدی از مطالعات اخیر در دست، میتوانیم با دقت بیشتری تعیین کنیم که صداهای گفتاری و غیرگفتاری برای اولین بار در کجای مغز تشخیص داده میشوند.
When the speech signal hits the ear, it is first processed by pathways in the brain that are not specialized for speech but are used for hearing in general. Heschl’s gyri, which are located on the supratemporal plane, superior and medial to the superior temporal gyrus (STG) in each hemisphere, contain the primary auditory cortex, or the area of cortex that processes the auditory input first (see Chapter 2). The areas that surround Heschl’s gyri and extend into the superior temporal sulcus (STS) are collectively known as auditory association cortex.
هنگامیکه سیگنال گفتار به گوش میرسد، ابتدا توسط مسیرهایی در مغز پردازش میشود که برای گفتار تخصصی نیستند، اما به طور کلی برای شنیدن استفاده میشوند. شکنج هشل، که در صفحه فوق گیجگاهی، فوقانی و میانی نسبت به شکنج گیجگاهی فوقانی (STG) در هر نیمکره قرار دارد، شامل قشر شنوایی اولیه یا ناحیه ای از قشر است که ابتدا ورودی شنوایی را پردازش میکند (به فصل ۲ مراجعه کنید). نواحی که اطراف شکم هشل را احاطه کرده و تا شیار گیجگاهی فوقانی (STS) امتداد مییابند، در مجموع به عنوان قشر انجمن شنوایی شناخته میشوند.
Imaging and recording studies in humans have shown that Heschl’s gyri (see Figure 5.17) of both hemispheres are activated by speech and nonspeech sounds (e.g., tones) alike, but that activation in the STS of each hemisphere is modulated by whether the incoming auditory signal is a speech sound or not. This view is summarized in Figure 11.12, showing that there is a hierarchy in the sensitivity to speech in our brain (Peelle et al., 2010; Poeppel et al., 2012).
مطالعات تصویربرداری و ضبط بر روی انسان نشان داده است که شکار هشل (نگاه کنید به شکل ۵.۱۷) هر دو نیمکره توسط صداهای گفتاری و غیر گفتاری (مانند تنها) به طور یکسان فعال میشود، اما فعال شدن در STS هر نیمکره توسط سیگنال شنیداری ورودی تعدیل میشود. صدای گفتار است یا نه این دیدگاه در شکل ۱۱.۱۲ خلاصه شده است و نشان میدهد که یک سلسله مراتب در حساسیت به گفتار در مغز ما وجود دارد (Peelle et al., 2010; Poeppel et al., 2012).
As we move farther away from Heschl’s gyrus, the brain becomes less sensitive to changes in nonspeech sounds but more sensitive to speech sounds. Although more left lateralized, the posterior portions of the STS of both hemispheres seem especially relevant to processing of phonological information. It is clear from many studies, however, that the speech perception network expands beyond the STS.
هرچه از شکنج هشل دورتر میشویم، مغز نسبت به تغییرات صداهای غیرکلامیکمتر حساس میشود اما نسبت به صداهای گفتاری حساس تر میشود. اگر چه بیشتر سمت چپ، بخشهای خلفی STS هر دو نیمکره به نظر میرسد به خصوص به پردازش اطلاعات واج شناختی مرتبط است. با این حال، از بسیاری از مطالعات مشخص است که شبکه ادراک گفتار فراتر از STS گسترش مییابد.
As described earlier, Wernicke found that patients with lesions in the left temporoparietal region that included the STG (Wernicke’s area) had difficulty under- standing spoken and written language. This observation led to the now-century-old notion that this area is crucial to word comprehension. Even in Wernicke’s original observations, however, the lesions were not restricted to the STG. We can now conclude that the STG alone is probably not the seat of word comprehension.
همانطور که قبلاً توضیح داده شد، ورنیکه دریافت که بیماران مبتلا به ضایعات در ناحیه گیجگاهی-پاریتال چپ که شامل STG (ناحیه ورنیکه) بود، در درک زبان گفتاری و نوشتاری مشکل داشتند. این مشاهدات منجر به این تصور قرنها قدیمیشد که این ناحیه برای درک کلمات بسیار مهم است. با این حال، حتی در مشاهدات اولیه Wernicke، ضایعات به STG محدود نمیشد. اکنون میتوانیم نتیجه بگیریم که STG به تنهایی احتمالاً جایگاه درک کلمات نیست.
One contribution to our new understanding of speech perception has come from an fMRI study done by Jeffrey Binder and colleagues at the Medical College of Wisconsin (2000). Participants in the study listened to different types of sounds, both speech and nonspeech. The sounds were of several types: white noise; frequency-modulated tones; re- versed speech in which real words were played backward; pseudowords, which were pronounceable strings of non- real words that contained the same letters as the real word- for example, sked from desk; and, finally, real words.
یک کمک به درک جدید ما از ادراک گفتار از یک مطالعه fMRI بدست آمده است که توسط جفری بایندر و همکارانش در کالج پزشکی ویسکانسین (۲۰۰۰) انجام شده است. شرکت کنندگان در این مطالعه به انواع مختلف صداها، اعم از گفتاری و غیرگفتاری گوش میدادند. صداها انواع مختلفی داشتند: نویز سفید. تنهای مدوله شده با فرکانس؛ گفتار معکوس که در آن کلمات واقعی به عقب پخش میشوند. شبه واژهها، که رشتههای قابل تلفظی از کلمات غیرواقعی بودند که دارای حروفی مشابه کلمه واقعی بودند- برای مثال، از روی میز حرکت میکردند. و در نهایت کلمات واقعی
These researchers found patterns of consistent activity across the different stimuli that were strongest in the left hemisphere. From their data, along with evidence from other groups, Binder and colleagues (2000) proposed a hierarchical model of word recognition (Figure 11.13). First, the stream of auditory information proceeds from auditory cortex in Heschl’s gyri to the superior temporal gyrus. In these parts of the brain, no distinction is made between speech and nonspeech sounds, as noted earlier. The first evidence of such a distinction is in the adjacent midportion of the superior temporal sulcus, but still, no lexical-semantic information is processed in this area. Finally, the regions that were more active for words than for nonwords included the middle temporal gyrus, inferior temporal gyrus, angular gyrus, and temporal pole.
این محققان الگوهایی از فعالیت ثابت را در بین محرکهای مختلف پیدا کردند که قوی ترین در نیمکره چپ بودند. بایندر و همکارانش (۲۰۰۰) از دادههای خود، همراه با شواهدی از گروههای دیگر، یک مدل سلسله مراتبی از تشخیص کلمه را پیشنهاد کردند (شکل ۱۱.۱۳). اول، جریان اطلاعات شنوایی از قشر شنوایی در شکنج Heschl به شکنج گیجگاهی فوقانی میرسد. همانطور که قبلا ذکر شد، در این قسمتهای مغز، هیچ تمایزی بین صداهای گفتاری و غیر گفتاری قائل نمیشود. اولین شاهد چنین تمایزی در قسمت میانی مجاور شیار گیجگاهی بالایی است، اما هنوز هیچ اطلاعات لغوی- معنایی در این زمینه پردازش نشده است. در نهایت، مناطقی که برای کلمات بیشتر از غیرکلمهها فعال بودند شامل شکنج گیجگاهی میانی، شکنج گیجگاهی تحتانی، شکنج زاویهای و قطب گیجگاهی بود.
Neurophysiological studies, such as those using EEG or MEG recording, now indicate that recognizing whether a speech sound is a word or a pseudoword happens in the first 50 to 80 ms (MacGregor et al., 2012). This processing tends to be lateralized more to the left hemisphere, where the combinations of the different features of speech sounds are analyzed (pattern recognition). From the superior temporal sulcus, the information proceeds to the final processing stage of word recognition in the middle temporal gyrus and the inferior temporal gyrus, and finally to the angular gyrus, posterior to the temporal areas just described (see Chapter 2), and in more anterior regions in the temporal pole (Figure 11.12).
مطالعات نوروفیزیولوژیکی، مانند آنهایی که از ضبط EEG یا MEG استفاده میکنند، اکنون نشان میدهد که تشخیص اینکه صدای گفتار یک کلمه است یا یک شبه کلمه، در ۵۰ تا ۸۰ میلی ثانیه اول اتفاق میافتد (MacGregor et al., 2012). این پردازش بیشتر به سمت نیمکره چپ گرایش دارد، جایی که ترکیبات ویژگیهای مختلف صداهای گفتاری تجزیه و تحلیل میشود (تشخیص الگو). از شیار گیجگاهی فوقانی، اطلاعات به مرحله پردازش نهایی تشخیص کلمه در شکنج گیجگاهی میانی و شکنج گیجگاهی تحتانی، و در نهایت به شکنج زاویه ای، در خلف نواحی گیجگاهی که توضیح داده شد، میرسد (به فصل ۲ مراجعه کنید)، و در مناطق قدامی بیشتر در قطب تمپورال (شکل ۱۱.۱۲).
FIGURE 11.12 Hierarchical processing is a key organizational aspect of the human cortical auditory system.
Multiple parallel processing pathways radiate outward from primary auditory areas to regions of motor, premotor, and prefrontal cortex. Acoustic sensitivity is highest in primary auditory cortex (Heschl’s gyrus; red spot) and is activated by all auditory inputs. Acoustic sensitivity decreases moving anteriorly, inferiorly, and posteriorly away from primary auditory cortex, while intelligibility of the speech increases. Anterior and posterior regions of the superior temporal sulcus are increasingly speech specific. The left posterior inferior temporal cortex is involved in accessing or integrating semantic representations. Areas of the frontal cortex also contribute to speech comprehension.
شکل ۱۱.۱۲ پردازش سلسله مراتبی یک جنبه سازمانی کلیدی از سیستم شنوایی قشر مغز انسان است.
چندین مسیر پردازش موازی از نواحی شنوایی اولیه به سمت نواحی حرکتی، پیش حرکتی و قشر پیش پیشانی تابش میکنند. حساسیت صوتی در قشر اولیه شنوایی (شکنج Heschl، نقطه قرمز) بالاترین میزان است و توسط تمام ورودیهای شنوایی فعال میشود. حساسیت صوتی در حرکت به سمت جلو، تحتانی و خلفی از قشر شنوایی اولیه کاهش مییابد، در حالی که درک گفتار افزایش مییابد. نواحی قدامیو خلفی شیار گیجگاهی فوقانی به طور فزاینده ای خاص گفتار هستند. قشر گیجگاهی تحتانی خلفی چپ در دسترسی یا ادغام بازنماییهای معنایی نقش دارد. نواحی قشر پیشانی نیز به درک گفتار کمک میکند.
FIGURE 11.13 Regions involved in a hierarchical processing stream for speech processing. Sagittal sections showing Heschl’s gyri, which contain the primary auditory cortex, are in purple. Shown in red are areas of the dorsal superior temporal gyri that are activated more by frequency-modulated tones than by random noise. Yellow areas are clustered in the superior temporal sulcus and are speech-sound specific; they show more activation for speech sounds (words, pseudowords, or reversed speech) than for nonspeech sounds. Green areas include regions of the middle temporal gyrus, inferior temporal gyrus, angular gyrus, and temporal pole and are more active for words than for pseudowords or nonwords. Critically, these “word” areas are lateralized mostly to the left hemisphere.
شکل ۱۱.۱۳ مناطق درگیر در یک جریان پردازش سلسله مراتبی برای پردازش گفتار. بخشهای ساژیتال نشان دهنده شکنج Heschl که حاوی قشر شنوایی اولیه است، به رنگ ارغوانی است. با رنگ قرمز، نواحی از شکنج گیجگاهی فوقانی پشتی نشان داده شدهاند که بیشتر با صداهای تعدیلشده فرکانس فعال میشوند تا نویز تصادفی. نواحی زرد رنگ در شیار گیجگاهی فوقانی دستهبندی شدهاند و مختص صدا و گفتار هستند. آنها برای صداهای گفتاری (کلمات، شبه کلمات یا گفتار معکوس) فعال تر از صداهای غیر گفتاری هستند. مناطق سبز شامل نواحی شکنج گیجگاهی میانی، شکنج گیجگاهی تحتانی، شکنج زاویه ای و قطب گیجگاهی هستند و برای کلمات بیشتر از شبه کلمات یا غیرکلمهها فعال هستند. به طور بحرانی، این مناطق “کلمه” عمدتاً به نیمکره چپ جانبی هستند.
During the decade following the Binder study, researchers attempted in multiple studies to localize speech recognition processes. In reviewing 100 fMRI studies, lain DeWitt and Josef Rauschecker of Georgetown University Medical Center (2012) confirmed the findings that the left mid-anterior STG responds preferentially to phonetic sounds of speech. Researchers also have tried to identify areas in the brain that are particularly important for the processing of phonemes. Recent fMRI studies from the lab of Sheila Blumstein at Brown University suggest a network of areas involved in phonological processing during speech perception and production, including the left posterior STG (activation), supramarginal gyrus (selection), inferior frontal gyrus (phonological planning), and precentral gyrus (generating motor plans for production; Peramunage et al., 2011).
در طول دهه پس از مطالعه Binder، محققان در مطالعات متعددی تلاش کردند تا فرآیندهای تشخیص گفتار را بومیسازی کنند. در بررسی ۱۰۰ مطالعه fMRI، Lain DeWitt و Josef Rauschecker از مرکز پزشکی دانشگاه جورج تاون (۲۰۱۲) این یافتهها را تأیید کردند که STG وسط قدامیچپ ترجیحاً به صداهای آوایی گفتار پاسخ میدهد. محققان همچنین سعی کرده اند مناطقی را در مغز شناسایی کنند که برای پردازش واجها اهمیت ویژه ای دارند. مطالعات fMRI اخیر از آزمایشگاه شیلا بلومشتاین در دانشگاه براون، شبکهای از مناطق درگیر در پردازش واجشناختی در طول ادراک و تولید گفتار، از جمله STG خلفی چپ (فعالسازی)، شکنج فوق حاشیهای (انتخاب)، شکنج فرونتال تحتانی (برنامهریزی واجشناسی)، و شکنج پیش مرکزی (تولید طرحهای حرکتی برای تولید؛ Peramunage و همکاران، ۲۰۱۱).
These activation studies demonstrated that wide regions of the left temporal lobe are critical for auditory speech perception. Since fMRI studies in healthy individuals are correlative and do not demonstrate causal mechanisms, it is important to relate such information to other data when available. For speech perception, lesion methods can provide that critical causal information. That is, if a brain region is critical for a given linguistic process, then lesions of that region should result in deficits in patients.
این مطالعات فعال سازی نشان داد که مناطق وسیعی از لوب تمپورال چپ برای درک گفتار شنوایی حیاتی است. از آنجایی که مطالعات fMRI در افراد سالم همبستگی است و مکانیسمهای علّی را نشان نمیدهد، مهم است که چنین اطلاعاتی را در صورت وجود به سایر دادهها مرتبط کنیم. برای درک گفتار، روشهای ضایعه میتوانند آن اطلاعات علی حیاتی را ارائه دهند. به این معنا که اگر یک ناحیه مغز برای یک فرآیند زبانی خاص حیاتی باشد، ضایعات آن ناحیه باید منجر به نقص در بیماران شود.
Taking this approach, a group led by neurologist and cognitive neuroscientist Leonardo Bonilha at the University of South Carolina studied a large number of patients with left-hemisphere strokes that had resulted in a variety of aphasic deficits (Bonilha et al., 2017). The researchers then related the patients’ aphasic deficits to MRI maps of the lesion using a method known as connectome-based lesion- symptom mapping (CLSM; Gleichgerrcht et al., 2017). CLSM yields a statistical relationship for the strength of connections among all brain regions from a standard brain atlas and the behavioral deficits of the patients. The method is useful for assessing not only cortical gray matter damage, but also the contribution of white matter lesions to the deficits. Figure 11.14 shows the overlap of the extent of the lesions of the patient group, as well as the identified networks supporting spoken-word comprehension.
با اتخاذ این رویکرد، گروهی به رهبری لئوناردو بونیلها، عصب شناس و عصب شناس شناختی در دانشگاه کارولینای جنوبی، تعداد زیادی از بیماران مبتلا به سکته مغزی در نیمکره چپ را که منجر به انواع نقایص آفازی شده بود، مورد مطالعه قرار دادند (Bonilha et al., 2017). سپس محققان با استفاده از روشی به نام نگاشت علائم ضایعه مبتنی بر کانکتوم (CLSM؛ Gleichgerrcht et al., 2017) ضایعات آفازی بیماران را به نقشههای MRI ضایعه مرتبط کردند. CLSM یک رابطه آماری برای قدرت اتصالات بین تمام مناطق مغز از یک اطلس استاندارد مغز و نقایص رفتاری بیماران به دست میدهد. این روش برای ارزیابی نه تنها آسیب ماده خاکستری قشر مغز، بلکه همچنین نقش ضایعات ماده سفید در کمبودها مفید است. شکل ۱۱.۱۴ همپوشانی وسعت ضایعات گروه بیمار و همچنین شبکههای شناسایی شده را نشان میدهد که از درک گفتاری حمایت میکنند.
Written Input: Reading Words
ورودی نوشتاری: خواندن کلمات
Reading is the perception and comprehension of written language. For written input, readers must recognize a visual pattern. Our brain is very good at pattern recognition, but reading is a quite recent invention (about 5,500 years old). Although speech comprehension develops without explicit training, reading requires instruction. Specifically, learning to read requires linking arbitrary visual symbols into meaningful words. The visual symbols that are used vary across different writing systems. Words can be symbolized in writing in three different ways: alphabetic, syllabic, and logographic. For example, many Western languages use an alphabetic system, Japanese uses a syllabic system, and Chinese uses a logographic system.
خواندن درک و درک زبان نوشتاری است. برای ورودی نوشتاری، خوانندگان باید یک الگوی بصری را تشخیص دهند. مغز ما در تشخیص الگو بسیار خوب است، اما خواندن یک اختراع کاملاً جدید است (حدود ۵۵۰۰ سال قدمت). اگرچه درک گفتار بدون آموزش صریح توسعه مییابد، خواندن نیاز به آموزش دارد. به طور خاص، یادگیری خواندن مستلزم پیوند نمادهای بصری دلخواه به کلمات معنادار است. نمادهای بصری استفاده شده در سیستمهای نوشتاری مختلف متفاوت است. کلمات را میتوان در نوشتار به سه روش مختلف نمادسازی کرد: حروف الفبا، هجا و لوگوگراف. به عنوان مثال، بسیاری از زبانهای غربی از سیستم الفبایی استفاده میکنند، ژاپنی از سیستم هجایی و چینی از سیستم لوگوگرافی استفاده میکنند.
FIGURE 11.14 Networks for spoken-word comprehension. (a) Lesion overlap map of the left hemisphere from 34 stroke patients. The greatest overlap of lesions across the patient group is shown in the yellow-red end of the spectrum. (b) Regions of the left hemisphere showing the network found to be most involved in the comprehension of spoken words. (Left: lateral view. Right: medial view.) The network is centered on the posterior middle temporal gyrus (PMTG), from which connections link the middle temporal gyrus (MTG), inferior temporal gyrus (ITG), and the posterior cingulate cortex (PCC). The ITG is also directly linked with the PCC.
شکل ۱۱.۱۴ شبکههایی برای درک گفتاری. (الف) نقشه همپوشانی ضایعه نیمکره چپ از ۳۴ بیمار سکته مغزی. بیشترین همپوشانی ضایعات در سراسر گروه بیمار در انتهای زرد-قرمز طیف نشان داده شده است. (ب) مناطقی از نیمکره چپ که شبکه را نشان میدهد که بیشترین نقش را در درک کلمات گفتاری دارد. (چپ: نمای جانبی. راست: نمای داخلی.) این شبکه در مرکز شکنج میانی گیجگاهی خلفی (PMTG) قرار دارد، که از آن اتصالات شکنج گیجگاهی میانی (MTG)، شکنج گیجگاهی تحتانی (ITG) و قشر کمربندی خلفی را به هم متصل میکند. (PCC). ITG همچنین مستقیماً با PCC مرتبط است.
Regardless of the writing system used, readers must be able to analyze the primitive features, or the shapes of the symbols. In the alphabetic system-our focus here- this process involves the visual analysis of horizontal lines, vertical lines, closed curves, open curves, intersections, and other elementary shapes.
صرف نظر از سیستم نوشتاری مورد استفاده، خوانندگان باید بتوانند ویژگیهای اولیه یا اشکال نمادها را تجزیه و تحلیل کنند. در سیستم الفبایی – تمرکز ما در اینجا – این فرآیند شامل تجزیه و تحلیل بصری خطوط افقی، خطوط عمودی، منحنیهای بسته، منحنیهای باز، تقاطعها و سایر اشکال ابتدایی است.
In a 1959 paper that was a landmark contribution to the emerging science of artificial intelligence (i.e., machine learning), Oliver Selfridge proposed a four- stage, biologically plausible model for how visual stimuli were processed. Each stage had specific components that represented discrete substages of information processing and that, taken together, would allow a mechanical or biological visual system to recognize patterns. Selfridge whimsically called the components demons and his model the pandemonium model. The “demons” in the biological model correspond to specific neurons or neuronal circuits.
اولیور سلفریج در مقالهای در سال ۱۹۵۹ که سهم برجستهای در علم نوظهور هوش مصنوعی (یعنی یادگیری ماشین) بود، یک مدل چهار مرحلهای و از نظر بیولوژیکی قابل قبول برای نحوه پردازش محرکهای بصری پیشنهاد کرد. هر مرحله دارای اجزای خاصی بود که نشان دهنده مراحل فرعی گسسته پردازش اطلاعات بود و در کنار هم، به یک سیستم بصری مکانیکی یا بیولوژیکی اجازه میداد تا الگوها را تشخیص دهد. سلفریج به طرز عجیبی اجزا را شیاطین و مدل خود را مدل پاندمونیوم نامید. “شیاطین” در مدل بیولوژیکی مربوط به نورونهای خاص یا مدارهای عصبی هستند.
Selfridge’s demons, working in parallel, record events as they occur; they collectively recognize patterns in those events, and they may trigger subsequent events according to those patterns. In this model, the sensory input is temporarily stored as an iconic memory by the so-called image demon. Then a series of feature demons, each sensitive to a particular feature, start to decode features like curves, horizontal lines, and so forth in the iconic representation of the sensory input (Figure 11.15).
شیاطین سلفریج که به صورت موازی کار میکنند، وقایع را هنگام وقوع ثبت میکنند. آنها به طور جمعی الگوهایی را در آن رویدادها تشخیص میدهند و ممکن است رویدادهای بعدی را بر اساس آن الگوها آغاز کنند. در این مدل، ورودی حسی به طور موقت به عنوان یک حافظه نمادین توسط به اصطلاح شیطان تصویر ذخیره میشود. سپس یک سری از شیاطین ویژگی، که هر کدام به یک ویژگی خاص حساس هستند، شروع به رمزگشایی ویژگیهایی مانند منحنیها، خطوط افقی و غیره در نمایش نمادین ورودی حسی میکنند (شکل ۱۱.۱۵).
In the next step, each letter is represented by a cognitive demon whose activity level depends on how many of the features from the prior feature demon level match those of the letter it represents. Finally, the representation that best matches the input is selected by the decision demon. The pandemonium model has been criticized because it consists solely of stimulus-driven (bottom-up) processing and does not allow for feedback (top-down) processing, such as in the word superiority effect (see Chapter 3). It cannot explain, for example, why humans are better at processing letters found in words than letters found in nonsense words or even single letters.
در مرحله بعد، هر حرف توسط یک شیطان شناختی نشان داده میشود که سطح فعالیت آن بستگی به این دارد که چه تعداد از ویژگیهای سطح شیطان ویژگی قبلی با حروفی که نشان میدهد مطابقت دارد. در نهایت، نمایشی که به بهترین وجه با ورودی مطابقت دارد توسط شیطان تصمیم انتخاب میشود. مدل پاندمونیوم مورد انتقاد قرار گرفته است زیرا صرفاً شامل پردازش محرک (از پایین به بالا) است و امکان پردازش بازخورد (از بالا به پایین) را نمیدهد، مانند واژه اثر برتری (به فصل ۳ مراجعه کنید). به عنوان مثال، نمیتواند توضیح دهد که چرا انسانها در پردازش حروف موجود در کلمات بهتر از حروف موجود در کلمات مزخرف یا حتی تک حروف هستند.
In 1981, James McClelland and David Rumelhart proposed a computational model that has been important for visual letter recognition. This model assumes three levels of representation: a layer for the features of the letters of words, a layer for the letters, and a layer for the representation of words. An important characteristic of this model is that it permits top-down information (ie., information from the higher cognitive levels, such as the word layer) to influence earlier processes that happen at lower levels of representation (the letter layer and the feature layer).
در سال ۱۹۸۱، جیمز مک کللند و دیوید روملهارت یک مدل محاسباتی را پیشنهاد کردند که برای تشخیص حروف بصری مهم بوده است. این مدل سه سطح نمایش را در نظر میگیرد: یک لایه برای ویژگیهای حروف کلمات، یک لایه برای حروف و یک لایه برای نمایش کلمات. ویژگی مهم این مدل این است که به اطلاعات از بالا به پایین (یعنی اطلاعات از سطوح شناختی بالاتر، مانند لایه کلمه) اجازه میدهد تا بر فرآیندهای قبلی که در سطوح پایین تر نمایش (لایه حرف و لایه ویژگی) اتفاق میافتد تأثیر بگذارد. ).
This model contrasts sharply with Selfridge’s model, where the flow of information is strictly bottom-up (from the image demon to the feature demons to the cognitive demons and finally to the decision demon). Another important difference between the two models is that, in the McClelland and Rumelhart model, processes can take place in parallel such that several letters can be processed at the same time, whereas in Selfridge’s model, one letter is processed at a time in a serial manner. As Figure 11.16 shows, the model of McClelland and Rumelhart permits both excitatory and inhibitory links between all the layers.
این مدل به شدت با مدل سلفریج در تضاد است، جایی که جریان اطلاعات کاملاً از پایین به بالا است (از شیطان تصویر گرفته تا شیاطین ویژگی تا شیاطین شناختی و در نهایت به شیطان تصمیمگیر). تفاوت مهم دیگر بین این دو مدل این است که در مدل مک کللند و روملهارت، فرآیندها میتوانند به صورت موازی انجام شوند به طوری که چندین حرف را میتوان همزمان پردازش کرد، در حالی که در مدل سلفریج، یک حرف در یک زمان در یک سریال پردازش میشود. روش همانطور که شکل ۱۱.۱۶ نشان میدهد، مدل McClelland و Rumelhart هم پیوندهای تحریکی و هم بازدارنده را بین تمام لایهها اجازه میدهد.
The empirical validity of a model can be tested on real-life behavioral phenomena or against physiological data. McClelland and Rumelhart’s connectionist model does an excellent job of mimicking reality for the word superiority effect. This remarkable result indicates that words are probably not perceived letter by letter. The word superiority effect can be explained in terms of the McClelland and Rumelhart model, because the model proposes that top-down information of the words can either activate or inhibit letter activations, thereby helping the recognition of letters.
اعتبار تجربی یک مدل را میتوان بر روی پدیدههای رفتاری زندگی واقعی یا در برابر دادههای فیزیولوژیکی آزمایش کرد. مدل ارتباط گرای مک کللند و روملهارت کار بسیار خوبی در تقلید از واقعیت برای واژه اثر برتری انجام میدهد. این نتیجه قابل توجه نشان میدهد که کلمات احتمالا حرف به حرف درک نمیشوند. اثر برتری کلمه را میتوان بر اساس مدل مک کللند و روملهارت توضیح داد، زیرا این مدل پیشنهاد میکند که اطلاعات از بالا به پایین کلمات میتواند فعال سازی حروف را فعال یا مهار کند و در نتیجه به تشخیص حروف کمک کند.
FIGURE 11.15 Selfridge’s pandemonium model of letter recognition.
For written input, the reader must recognize a pattern that starts with the analysis of the sensory input (the letter R). The sensory input is stored temporarily in iconic memory by the image demon, and a set of feature demons decodes the iconic representations. The cognitive demons are activated by the representations of letters with these decoded features, and the representation that best matches the input is then selected by the decision demon. In this case, the letters D, P, and R share many features with the input letter R, and the decision demon chooses the best match among the candidates, which is, of course, the letter R.
شکل ۱۱.۱۵ مدل پاندمونیوم سلفریج برای تشخیص حروف.
برای ورودی نوشتاری، خواننده باید الگویی را تشخیص دهد که با تجزیه و تحلیل ورودی حسی (حرف R) شروع میشود. ورودی حسی توسط شیطان تصویر به طور موقت در حافظه نمادین ذخیره میشود و مجموعهای از شیاطین ویژگی، نمایشهای نمادین را رمزگشایی میکنند. شیاطین شناختی با نمایش حروف با این ویژگیهای رمزگشایی فعال میشوند و نمایشی که به بهترین وجه با ورودی مطابقت دارد توسط شیطان تصمیم انتخاب میشود. در این حالت حروف D و P و R با حرف ورودی R ویژگیهای مشترک زیادی دارند و شیطان تصمیم بهترین تطابق را از بین نامزدها انتخاب میکند که البته حرف R است.
FIGURE 11.16 Fragment of a connectionist network for letter recognition.
Nodes at three different layers represent letter features, letters, and words. Nodes in each layer can influence the activational status of the nodes in the other layers by excitatory (arrows) or inhibitory (lines) connections.
شکل ۱۱.۱۶ بخشی از یک شبکه اتصالگرا برای تشخیص حروف.
گرهها در سه لایه مختلف ویژگیهای حروف، حروف و کلمات را نشان میدهند. گرهها در هر لایه میتوانند با اتصالات تحریکی (فلشها) یا مهاری (خطوط) بر وضعیت فعال سازی گرهها در لایههای دیگر تأثیر بگذارند.
We learned in Chapters 5 and 6 that single-cell- recording techniques have enlightened us about the basics of visual feature analysis and about how the brain analyzes edges, curves, and so on. Unresolved questions remain, however, because letter and word recognition are not really understood at the neuronal level, and recordings in monkeys are not likely to enlighten us about letter and word recognition in humans. Recent studies using PET and fMRI have started to shed some light on where letters are processed in the human brain.
ما در فصلهای ۵ و ۶ یاد گرفتیم که تکنیکهای ضبط تک سلولی ما را در مورد اصول اولیه تجزیه و تحلیل ویژگیهای بصری و نحوه تجزیه و تحلیل مغز لبهها، منحنیها و غیره روشن کرده است. با این حال، سؤالات حل نشده باقی میمانند، زیرا تشخیص حروف و کلمه واقعاً در سطح عصبی درک نمیشود، و ضبطشده در میمونها احتمالاً ما را در مورد تشخیص حروف و کلمه در انسان روشن نمیکند. مطالعات اخیر با استفاده از PET و fMRI شروع به روشن کردن محل پردازش حروف در مغز انسان کرده است.
NEURAL SUBSTRATES OF WRITTEN-WORD PROC- ESSING
بسترهای عصبی پردازش کلمه نوشتاری
The actual identification of orthographic units may take place in occipitotemporal regions of the left hemisphere. It has been known for over a hundred years that lesions in this area can give rise to pure alexia, a condition in which patients cannot read words, even though other aspects of language are normal. In early PET imaging studies, Steve Petersen and his colleagues (1990) contrasted words with nonwords and found regions of occipital cortex that preferred word strings. They named these regions the visual word form area (VWFA).
شناسایی واقعی واحدهای املایی ممکن است در نواحی اکتیپیوتامپورال نیمکره چپ صورت گیرد. بیش از صد سال است که شناخته شده است که ضایعات در این ناحیه میتواند منجر به آلکسی خالص شود، وضعیتی که در آن بیماران نمیتوانند کلمات را بخوانند، حتی اگر سایر جنبههای زبان طبیعی هستند. در مطالعات اولیه تصویربرداری PET، استیو پترسن و همکارانش (۱۹۹۰) کلمات را با غیرکلمهها مقایسه کردند و مناطقی از قشر اکسیپیتال را یافتند که رشتههای کلمه را ترجیح میدهند. آنها این مناطق را ناحیه فرم کلمه بصری (VWFA) نامیدند.
In later studies using fMRI in normal participants, Gregory McCarthy at Yale University and his colleagues (Puce et al., 1996) contrasted brain activation in response to letters with activation in response to faces and visual textures. They found that regions of the occipitotemporal cortex were activated preferentially in response to unpronounceable letter strings (Figure 11.17). Interestingly, this finding confirmed results from an earlier study by the same group (Nobre et al., 1994), in which intra- cranial electrical recordings were made from this brain region in patients who later underwent surgery for intractable epilepsy. In this study, the researchers found a large negative-polarity potential at about 200 ms in occipitotemporal regions, in response to the visual presentation of letter strings. This area was not sensitive to other visual stimuli, such as faces, and importantly, it also appeared to be insensitive to lexical or semantic features of words.
در مطالعات بعدی با استفاده از fMRI در شرکت کنندگان عادی، گرگوری مک کارتی در دانشگاه ییل و همکارانش (Puce et al., 1996) فعال سازی مغز در پاسخ به حروف را با فعال سازی در پاسخ به چهرهها و بافتهای بصری مقایسه کردند. آنها دریافتند که نواحی قشر پشتی-گیجگاهی ترجیحاً در پاسخ به رشتههای حروف غیرقابل تلفظ فعال میشوند (شکل ۱۱.۱۷). جالب توجه است، این یافته نتایج یک مطالعه قبلی توسط همان گروه را تایید کرد (Nobre و همکاران، ۱۹۹۴)، که در آن ضبطهای الکتریکی داخل جمجمهای از این ناحیه مغز در بیمارانی که بعداً تحت عمل جراحی صرع مقاوم قرار گرفتند، انجام شد. در این مطالعه، محققان در پاسخ به نمایش بصری رشتههای حروف، پتانسیل قطب منفی بزرگی را در حدود ۲۰۰ میلیثانیه در نواحی اکسیپیتومپورال پیدا کردند. این ناحیه نسبت به سایر محرکهای بصری مانند چهرهها حساس نبود و مهمتر از آن اینکه به ویژگیهای واژگانی یا معنایی کلمات نیز بیحساس به نظر میرسید.
The standard model of word reading postulates that visual information is initially processed by the occipitotemporal area contralateral to the stimulated hemifield, and then transferred to the visual word form area in the left hemisphere. If that initial processing occurs in the right hemisphere, it is transferred to the VWFA in the left hemisphere via the posterior corpus callosum.
مدل استاندارد خواندن کلمه فرض میکند که اطلاعات بصری در ابتدا توسط ناحیه پشتی-گیجگاهی در مقابل همیفیلد تحریکشده پردازش میشود و سپس به ناحیه شکل کلمه بصری در نیمکره چپ منتقل میشود. اگر پردازش اولیه در نیمکره راست رخ دهد، از طریق جسم پینه ای خلفی به VWFA در نیمکره چپ منتقل میشود.
French scientists Laurent Cohen, Stanislas Dehaene, and their colleagues (2000) investigated the spatial and temporal organization of these processes in a combined ERP and fMRI study that included both healthy per- sons and patients with lesions to their posterior corpus callosum. While the participants fixated on a central crosshair, a word or a nonword was flashed to either their right or left visual field. Nonwords were consonant strings incompatible with French orthographic principles and were impossible to translate into phonology. When a word flashed on the screen, the participants were to repeat it out loud, and if a nonword flashed, they were to think rien (which is French for “nothing”).
دانشمندان فرانسوی لوران کوهن، استانیسلاس دهان و همکارانشان (۲۰۰۰) سازماندهی مکانی و زمانی این فرآیندها را در یک مطالعه ترکیبی ERP و fMRI که هم افراد سالم و هم بیماران مبتلا به ضایعات جسم پینهای خلفی را شامل میشد، بررسی کردند. در حالی که شرکتکنندگان روی یک خط متقاطع مرکزی ثابت میکردند، یک کلمه یا یک کلمه غیرکلمه به میدان بینایی راست یا چپ آنها فلش میشد. غیرکلمهها رشتههای همخوانی بودند که با اصول املایی فرانسوی ناسازگار بودند و ترجمه آنها به واج شناسی غیرممکن بود. هنگامیکه یک کلمه روی صفحه چشمک میزد، شرکت کنندگان باید آن را با صدای بلند تکرار میکردند، و اگر یک کلمه غیرقابل چشمک میزد، باید به rien فکر کنند (که فرانسوی به معنای “هیچ” است).
The fMRI imaging showed that the occipital cortex contralateral to the hemifield of the written input was activated, and the ERPs over contralateral scalp regions indicated that this initial processing took place about 150 ms after stimulus onset in both groups. Then, 30 ms later, a left-lateralized scalp ERP was observed for both right- and left-hemifield written inputs in the healthy patients. This observation was consistent with fMRI activation in part of the VWFA in the left occipitotemporal sulcus (anterior and lateral to area V4)—the region that, when lesioned, causes pure alexia (L. Cohen et al., 2000). This activation was visually elicited only for prelexical forms (before the word form was associated with a meaning; Dehacne et al., 2002), yet was invariant for the location of the stimulus (right or left visual field) and the case of the word stimulus (Dehaene & Cohen, 2001). These findings were in agreement with Nobre’s intracranial-recording findings presented earlier.
تصویربرداری fMRI نشان داد که قشر اکسیپیتال در مقابل همیفیلد ورودی نوشته شده فعال شده است و ERPها روی نواحی طرف مقابل پوست سر نشان میدهد که این پردازش اولیه حدود ۱۵۰ میلی ثانیه پس از شروع محرک در هر دو گروه انجام میشود. سپس، ۳۰ میلیثانیه بعد، ERP اسکالپ جانبی چپ برای ورودیهای نوشتاری همیفیلد راست و چپ در بیماران سالم مشاهده شد. این مشاهدات با فعالسازی fMRI در بخشی از VWFA در شیار اکسیپیتومپورال چپ (قدامیو جانبی نسبت به ناحیه V4) – ناحیهای که وقتی ضایعه میشود، باعث آلکسی خالص میشود، مطابقت داشت (L. Cohen et al., 2000). این فعالسازی از نظر بصری فقط برای اشکال پیشواژهای برانگیخته میشد (قبل از اینکه کلمه فرم با یک معنی مرتبط شود؛ Dehacne و همکاران، ۲۰۰۲)، اما برای مکان محرک (میدان بینایی راست یا چپ) و مورد کلمه ثابت بود. محرک (Dehaene & Cohen, 2001). این یافتهها با یافتههای ثبت داخل جمجمهای Nobre که قبلاً ارائه شده بود مطابقت داشت.
FIGURE 11.17 Regions in occipitotemporal cortex were preferentially activated in response to letter strings.
Stimuli were faces (a) or letter strings (b). (c) Left-hemisphere coronal slice at the level of the anterior occipital cortex. Faces activated a region of the lateral fusiform gyrus (yellow); letter strings activated a region of the occipitotemporal sulcus (pink). (d) The corresponding time course of fMRI activations averaged over all alternation cycles for faces (yellow line) and letter strings (pink line).
شکل ۱۱.۱۷ مناطق در قشر اکسیپیتوتمپورال ترجیحاً در پاسخ به رشتههای حروف فعال میشوند.
محرکها صورت (الف) یا رشتههای حرف (ب) بودند. ج) برش تاج نیمکره چپ در سطح قشر اکسیپیتال قدامی. چهرهها ناحیه ای از شکنج دوکی شکل جانبی (زرد) را فعال کردند. رشتههای حروف ناحیه ای از شیار پس سری (صورتی) را فعال میکند. (د) دوره زمانی متناظر فعالسازی fMRI بهطور میانگین در تمام چرخههای تناوب برای چهرهها (خط زرد) و رشتههای حروف (خط صورتی).
In the patients with posterior callosal lesions, the VWFA activation and related ERPs were observed only for right-hemifield stimuli, which could directly access the left-hemisphere VWFA. These patients also had normal reading performance using their right visual fields. Because of the sectioned posterior corpus callosum, however, stimuli in the left hemifield could no longer gain access to the left hemisphere, and the patients showed left hemialexia, impaired reading of left-visual-field words.
در بیماران مبتلا به ضایعات پینه ای خلفی، فعال شدن VWFA و ERPهای مربوطه فقط برای محرکهای همیفیلد راست مشاهده شد که میتوانست مستقیماً به VWFA نیمکره چپ دسترسی پیدا کند. این بیماران همچنین با استفاده از میدان دید سمت راست خود عملکرد خواندن طبیعی داشتند. با این حال، به دلیل برش جسم پینهای خلفی، محرکها در نیمفیلد چپ دیگر نمیتوانستند به نیمکره چپ دسترسی پیدا کنند و بیماران همیالکسی چپ، اختلال در خواندن کلمات میدان بینایی چپ را نشان دادند.
FIGURE 11.18 Connectivity of the VWFA and FFA with language cortex.
The top row shows lateral views of the left hemisphere; the bottom row shows medial views. DTI methods were used to identify the projections of white matter tracts from the visual word form area (VWFA) and fusiform face area (FFA) to other brain areas. (a) The VWFA is more strongly connected with areas within the left perisylvian language system. (b) The FFA is more connected to medial temporal and occipital areas. Regions shown in red indicate the most selective projections of each of the VWFA and FFA to other cortical areas: regions shown in green and blue are less selective projections. The white line in the top image of part (a) demarcates the regions of the brain that are not strongly connected to the VWFA (above the line) versus those that are (below the line).
شکل ۱۱.۱۸ اتصال VWFA و FFA با قشر زبان.
ردیف بالا نماهای جانبی نیمکره چپ را نشان میدهد. ردیف پایین نماهای داخلی را نشان میدهد. از روشهای DTI برای شناسایی برجستگی مجاری ماده سفید از ناحیه بصری کلمه (VWFA) و ناحیه صورت دوکی (FFA) به سایر نواحی مغز استفاده شد. (الف) VWFA قویتر با نواحی درون سیستم زبان پریسیلوی چپ مرتبط است. (ب) FFA بیشتر به نواحی گیجگاهی و پس سری داخلی متصل است. مناطقی که با رنگ قرمز نشان داده شده اند، انتخابی ترین برجستگیهای هر یک از VWFA و FFA را به سایر نواحی قشر مغز نشان میدهند: مناطقی که به رنگ سبز و آبی نشان داده شده اند، پیش بینیهای انتخابی کمتری دارند. خط سفید در تصویر بالای قسمت (الف) مناطقی از مغز را که به شدت به VWFA متصل نیستند (بالای خط) در مقابل مناطقی که (زیر خط) هستند مشخص میکند.
Activation of the VWFA is reproducible across cultures that use different types of symbols, such as Japanese kana (syllabic) and kanji (logographic; Bolger et al., 2005). This convergent neurological and neuroimaging evidence gives us clues as to how the human brain solves the perceptual problems of letter recognition.
فعالسازی VWFA در فرهنگهایی که از انواع مختلف نمادها استفاده میکنند، مانند کانای ژاپنی (هجایی) و کانجی (logographic؛ Bolger et al., 2005) قابل تکرار است. این شواهد همگرای عصبی و تصویربرداری عصبی به ما سرنخهایی میدهد که چگونه مغز انسان مشکلات ادراکی تشخیص حروف را حل میکند.
Investigators have followed up this work on the visual word form area by asking about its connections to the left perisylvian language network (Bouhali et al., 2014). They used DTI techniques to identify the connections be- tween the VWFA and the temporal cortex, as well as the connections between the laterally adjacent fusiform face area (FFA) and the temporal cortex. Figure 11.18 shows differential connectivity for the VWFA and the FFA as statistical maps. The VWFA is better connected with perisylvian language-related areas, including Broca’s area and the insula, the superior and lateral temporal lobe, and the posterior inferior parietal lobule; connectivity with the right temporal lobe is minimal. The FFA, however, is better connected to medial occipital and temporal lobe regions, including the hippocampus and parahippocampal gyrus, and regions of the posterior occipital lobe.
محققین این کار را بر روی ناحیه فرم کلمه بصری با پرسش در مورد ارتباط آن با شبکه زبان پریسیلوی چپ دنبال کردند (بوهالی و همکاران، ۲۰۱۴). آنها از تکنیکهای DTI برای شناسایی اتصالات بین VWFA و قشر تمپورال و همچنین اتصالات بین ناحیه صورت دوکی شکل (FFA) و قشر گیجگاهی استفاده کردند. شکل ۱۱.۱۸ اتصال دیفرانسیل VWFA و FFA را به عنوان نقشههای آماری نشان میدهد. VWFA بهتر با نواحی مرتبط با زبان پریسیلوین، از جمله ناحیه بروکا و اینسولا، لوب تمپورال فوقانی و جانبی، و لوبول آهیانهای تحتانی خلفی مرتبط است. اتصال با لوب تمپورال سمت راست حداقل است. با این حال، FFA بهتر به نواحی اکسیپیتال داخلی و لوب تمپورال، از جمله هیپوکامپ و شکنج پاراهیپوکامپ، و نواحی لوب پس سری خلفی متصل است.
TAKE-HOME MESSAGES
پیامهای اصلی
▪️ Sound comprehension involves the superior temporal cortex. People with damage to this area may develop pure word deafness.
▪️ درک صدا شامل قشر تمپورال فوقانی میشود. افرادی که به این ناحیه آسیب میرسانند ممکن است دچار ناشنوایی کلمه خالص شوند.
▪️ Distinguishing speech from nonspeech sounds occurs in the superior temporal sulcus (STS) surrounding early auditory cortex. Distinguishing words from nonwords involves the middle temporal gyrus, inferior temporal gyrus, angular gyrus, and temporal pole and can occur as soon as 50 to 80 ms after word onset.
▪️ تشخیص گفتار از صداهای غیر گفتاری در شیار گیجگاهی فوقانی (STS) اطراف قشر شنوایی اولیه رخ میدهد. تشخیص کلمات از غیرکلمه شامل شکنج گیجگاهی میانی، شکنج گیجگاهی تحتانی، شکنج زاویه ای و قطب گیجگاهی است و میتواند به محض ۵۰ تا ۸۰ میلی ثانیه پس از شروع کلمه رخ دهد.
▪️ Written-word processing takes place in a region in the occipitotemporal cortex of the left hemisphere. Damage to this area can cause pure alexia, a condition in which patients cannot read words, even though other aspects of language are normal.
▪️ پردازش کلمات نوشتاری در ناحیه ای در قشر اکتیپیوتامپورال نیمکره چپ صورت میگیرد. آسیب به این ناحیه میتواند باعث آلکسی خالص شود، وضعیتی که در آن بیماران نمیتوانند کلمات را بخوانند، حتی اگر سایر جنبههای زبان طبیعی هستند.
▪️ Written information from the left visual field first arrives via visual inputs to the contralateral right occipital cortex and is sent to the left-hemisphere visual word form area via the corpus callosum.
▪️ اطلاعات مکتوب از میدان بینایی سمت چپ ابتدا از طریق ورودیهای بصری به قشر اکسیپیتال سمت راست مقابل میرسد و از طریق جسم پینه ای به ناحیه شکل کلمه بصری نیمکره چپ ارسال میشود.
▪️The visual word form area is heavily interconnected with regions of the left perisylvian language system, including inferior frontal, temporal, and inferior parietal cortical regions.
▪️منطقه شکل کلمه بصری به شدت با نواحی سیستم زبان پریسیلوی چپ، از جمله نواحی پیشانی تحتانی، گیجگاهی، و قشر آهیانهای تحتانی مرتبط است.
»» فصل قبل: فصل هیجان
»» تمامی کتاب