SPEECH PERCEPTION 音声知覚
Randy L. Diehl
ランディー L ディール

課題論文の全訳がやっとおわりました。(やったー、バンザーイ)



Department of Psychology and Center for Perceptual Systems, University of Texas, Austin, Texas 78712-0187; email:
心理学の部門であり認知システムの中央部、テキサス大学、オースティン、テキサス 78712-0187;電子メール

Andrew J. Lotto
Boys Town National Research Hospital, Omaha, Nebraska 68131; email: lottoa@boystown.org
アンドレ J ロト
ネブラスカ州オマハ、国立小児病院

Lori L. Holt
Department of Psychology and Center for the Neural Basis of Cognition, Carnegie Mellon University, Pittsburgh, Pennsylvania 15213; email: lholt@andrew.cmu.edu
ロリー L ホルト
ペンシルバニア州ピッツバーグ市カーネギーメロン大学の神経基礎学の心理学部門とセンター



Abstract
要約
This chapter focuses on one of the first steps in comprehending spoken language:
この章では理解できる話し言葉における最初の段階の一事象を中心に述べる。

How do listeners extract the most fundamental linguistic elementsconsonants and vowels, or the distinctive features which compose themfrom the acoustic signal?
どのようにして聞き手は最も多くの基礎的な言語子音要素や母音、そして音響的信号からそれらを構成させる弁別的組成をを抽出するのだろうか。

We begin by describing three major theoretical perspectives on the perception of speech.
我々は話し言葉の知覚について3つの大多数が指示する理論的考え方を述べることから始める。

Then we review several lines of research that are relevant to distinguishing these perspectives.
それから、これらの考えを識別するのに妥当な研究のいくつかの流れについて吟味していく。

The research topics surveyed include categorical perception, phonetic context effects, learning of speech and related nonspeech categories, and the relation between speech perception and production.
研究のトピックとしては、カテゴリー化した認知、音声の前後関係による効果、言語習得、そして関連する話し言葉に寄らないカテゴリー化そして、音声知覚と生産との間の関係を含めて論じる。

Finally, we describe challenges facing each of the major theoretical perspectives on speech perception.
最後に、私達は、音声知覚における大多数の支持する理論的洞察それぞれに直接に議論をしていくことを試みる。


Over the past 50 years, researchers in speech perception have focused on the mapping between properties of the acoustic signal and linguistic elements such as phonemes and distinctive features.
この50年の間に、音声知覚の研究者達は、音素と弁別的組成のように、音響的信号の特質と言語要素について議論を集中させてきた。

This mapping has turned out to be quite complex, and a complete explanation of how humans recognize consonants and vowels remains elusive.
この領域作成は、複雑になり消え去ってしまった。そして、いかに人類が子音と母音を認識することがあいまいなままであるかということを完全に説明した。

The search for an explanation has given rise to three main theoretical perspectives on speech perception that frame much of the empirical work.
ある説明に対する研究は、研究上の仕事の多くを枠組みづける3つの音声知覚のメインになる理論的洞察に光をあてた。

In this chapter, we briefly describe these perspectives and then review some of the research most relevant to evaluating them.
この章においては、私達はこれらの考え方を手短に述べると共に、それらを評価する多くの関連性の研究のいくつかを吟味する。

We end by highlighting some of the main challenges facing each theoretical view.
私達は、最後にそれぞれの理論的見地に対して議論をもちかけ最重要点としてきたい。

Beginning in the early 1950s, Alvin Liberman, Franklin Cooper, Pierre Delattre, and other researchers at the Haskins Laboratories carried out a series of landmark studies on the perception of synthetic speech sounds (Delattre et al. 1951, 1952, 1955, 1964; Liberman 1957; Liberman et al. 1952, 1954, 1956).
1950年代初頭に、ハスキン研究室のアルビン・ライブマン、フランクリン・クーパー、ピリー・ダレット、ほかの研究者達は、統合的な音声の音の認知についての指標となるような研究のシリーズを実行した。

This work provided the foundation of what is known about acoustic cues for linguistic units such as phonemes and features and revealed that the mapping between speech signals and linguistic units is quite complex.
この研究は音素と特徴のように言語的なユニットの音響的な手がかりにとは何かということ、また言語ユニットは全く複雑であるということの基礎を築き上げた。

In time, Liberman and his colleagues became convinced that perceived phonemes and features have a simpler (i.e., more nearly one-to-one) relationship to articulation than to acoustics, and this gave rise to the motor theory of speech perception.
やがて、ライブマンとかれの同僚は、知覚された音素と特徴は音響に対するよりも調音に対する単純(すなわちより1対1に近い)なものであることを確信するに至った。

The motor theory (MT) has undergone significant changes since its initial formulation (Liberman 1996), but every version has claimed that the objects of speech perception are articulatory events rather than acoustic or auditory events.
運動性理論(MT)はその最初の基礎以来重要な変化を受けてきた(ライバーマン1996)が、全ての説明が音声知覚の対象が音響的事象よりもむしろ調音事象であるという批判を受けた。

More specifically, it was hypothesized that the articulatory events recovered by human listeners are neuromotor commands to the articulators (e.g., tongue, lips, and vocal folds)also referred to as intended gestures rather than more peripheral events such as actual articulatory movements or gestures (Liberman & Mattingly 1985, Liberman et al. 1967).
さらにもっと明確に、それは、人間の聞き手によって再生された調音の事象は調音器官にとって神経運動であり(たとえば、舌、唇、音を出すひだ)、また音響の運動またはジェスチャーとしての周囲の事象よりもジェスチャーであると首長している。

This theoretical choice was guided by a belief that the objects of speech perception must be more-or-less invariant with respect to phonemes or feature sets and by a further belief that such a requirement was satisfied only by neuromotor commands.
この理論的選択は、音声知覚の対象は、音素の重視や特徴の仲間に関わる差異のないものに違いないということやそれ以上に必要条件がただ神経運動命令だけによって満足されていることによって理論付けられている。

The process of speech production was characterized by Liberman et al. (1967) as a series of causal links between descriptive levels: phonemes (or sets of distinctive features) neuromotor commands muscle contractions vocal tract shapes acoustic signals.
スピーチの生成の過程は、ライブマン エト アルによって特徴づけられた。それは、記述的なレベルの間の何気ない連鎖の連続:音素(または、弁別的組成のまとまり)神経運動が筋肉の収縮を命令し、音の広がりが音響的信号を形成する。

Whereas phonemes (or feature sets) were assumed to stand approximately in one-to-one correspondence with neuromotor commands and with muscle contractions, the mapping between muscle contractions and vocal tract shapes was thought to be highly complex owing to the fact that adjacent vowels and consonants are coarticulated (i.e., produced with temporal and, to some extent, spatial overlap).
音素(または特徴あるひとまとまり)が神経運動の命令や筋肉の収縮によって一つ一つが相応しているというおおよその見地が妥当であるのに、筋肉収縮や音声束の形成間の領域作成は隣接した母音と子音が相互に明瞭に発音されるという事実に複雑に起因していると考えられる。(たとえば、一時的に生産されるとかいくらかの範囲においてとか、空間的なかさなりとか)

Because the relation between vocal tract shapes and acoustic signals was assumed to be one-to-one, the complex mapping between phonemes and speech sounds was attributed mainly to the effects of coarticulation.
音声の広がりの形と音響的信号の間の関係は1対1に見えるので、音素とスピーチの間の複雑なマッピングは相互にはっきりした調音結合の効果に主に帰する。

As an illustration of the complex mapping between phonemes and their acoustic realizations, Liberman et al. (1967) displayed spectrograms of synthetic two-formant patterns (shown in Figure 1) that are perceived by listeners as the syllables /di/ ("dee") and /du/ ("doo").

音素とそれらの音響的認識の間の複雑なマッピングの例証として、ライブマン・エト・アル(1967)は音節/di/ ("dee") と /du/ ("doo")のように聞き手によって認知される(図1参照)総合的な二つの形式のパタンのスペクトラムについて示した。

In these patterns, the steady-state formants correspond to the target values of the vowels /i/ and /u/, and the rapidly changing formant frequencies (formant transitions) at the onset of each syllable carry important information about the initial consonant.

これらのパタンにおいて、しっかりした状態のフォルマントは /i/と/u/の母音の目的価値に一致し、それぞれの音節の頭字音におけるすばやく変化するフォルマント周波数(フォルマント遷移)は初期子音についての重要な情報を引き出す。

In particular, the rising first-formant (F1) transition of both syllables signals that the consonant is a voiced "stop" such as /b/, /d/, or /g/, whereas the rising second-formant (F2) transition of /di/ and the falling F2 transition of /du/ provide critical information about place of articulation (i.e., that the consonant is /d/ rather than /b/ or /g/).
特に、子音が/b/や/d/また/g/のような閉鎖音である両方の音素記号の遷移の抑揚のある第一フォルマント(F1)変化であるのに、抑揚のアル音声フォルマント(F2)の/du/のような移り変わりは明確な発音の@について批判的な情報を与える。(たとえば子音が/b/ または/g/よりもむしろ/d/であるように)

That such different patterns of F2 transition could give rise to the same phonemic percept strongly suggested to the motor theorists that invariance must be sought at an articulatory rather than an acoustic level of description.
F2の遷移のそのような異なるパタンは、相違のないことが記述の音響的レベルよりもむしろ調音に対すると探されるにちがいない同じ音素の知覚に上昇する。

View larger version (7K)
より大きな説明の見地(7K)

Figure 1. Formant patterns for simplified versions of /di/ and /du/.
図1./d/や/du/の単純化された説明に対するフォルマントのパタン。

Note that the transition of the second formant (i.e., the one higher in frequency) differs dramatically for the two syllables.
第二フォルマント(例えば、周波数において一つ高いところ)の遷移が2つの音素に対して劇的に異なることに注目しなさい。

Nonetheless, the consonant in both cases is perceived as /d/.
それでもなお、どちらの場合も子音は/d/と認識される。

The first formant trajectory, which is equivalent in both syllables, is not informative about place of articulation and would be the same for /b/ and /g/ initial syllables. (Adapted from Delattre et al. 1952.)
両方の音節で同等である第一フォルマントの軌道は明確な発音の位置について有益ではなく、/b/や/g/の最初の音素に対して同じであろう。

A second important claim of MT is that the human ability to perceive speech sounds cannot be ascribed to general mechanisms of audition and perceptual learning but instead depends on a specialized decoder or module that is speech-specific, unique to humans, and, in later versions of the theory (Liberman 1996, Liberman & Mattingly 1985), innately organized and part of the larger biological specialization for language.
第二に重要なMTの批判は、スピーチの音を認識する人間の能力は聴力と認知学習の一般的なメカニズムに帰するわけがない、しかし、そのかわりとして明確なスピーチで、組織的で言語に対してより多くの生物学的な専門かされている特別な解読器やモジュールである。


The speech decoder was hypothesized by Liberman et al. (1967) to operate by "somehow running the process [of speech production] backward" (p. 454).
音声解読器は何とかして後方へ(スピーチの生成の)過程を営むかを操作するために、リベルマン他によって仮説づけられた。

This claim was elaborated by Liberman & Mattingly (1985) as follows: "[T]he candidate signal descriptions are computed by an analogue of the production processan internal, innately specified vocal-tract synthesizer that incorporates complete information about the anatomical and physiological characteristics of the vocal tract and also about the articulatory and acoustic consequences of linguistically significant gestures" (p. 26).
この批判はリベルマンやマチングリー(1985)に入念に作り上げられ次のようにものである。「候補となる信号の記述は生産過程の内部の相似器官によって算定され、完全な解剖上と生理学上の音声特色のある情報と一体化させる先天的に特殊化された音声の広がりの特性の広がりをもつシンセサイザーであり、また、言語的に重要な手振りの音響の成果についての情報である。

Liberman and his colleagues argued that, among other theoretical advantages, MT is parsimonious inasmuch as the same mechanism is used for both speech production and speech perception.
ライブマンと彼の同僚は、理論的に好都合であるほかのことと共にそのことを論じた。MTはスピーチ生産と音声知覚の両方に対して使われる同じメカニズムとしてである限り極端に倹約的である。

DIRECT REALIST THEORY OF SPEECH PERCEPTION Section:
音声知覚の直接的な写実主義者の理論

Choose Top of page ABSTRACT INTRODUCTION MOTOR THEORY OF SPEECH PE...
スピーチPEの運動筋肉の理論の要約の紹介のページを選びなさい。

DIRECT REALIST THEORY OF ... << GENERAL AUDITORY AND LEAR...
「一般的音響とLEAR」の直接的な写実主義者の理論

CATEGORICAL PERCEPTION PHONETIC CONTEXT EFFECTS ... 音声の文脈効果の一般的な認知

PHONETIC CONTEXT EFFECTS ... LEARNING SPEECH AND NONSP...
学ぶスピーチとNONSPの音声学的な文脈効果

RELATION BETWEEN SPEECH P... CONCLUDING REMARKS:
備考に終結するスピーチPの間の関係
CHALL... ACKNOWLEDGMENT LITERATURE CITED
文学引用の認容のCHALL

Starting in the 1980s, an alternative to MT referred to as the direct realist theory (DRT) of speech perception was developed by Carol Fowler, also working at the Haskins Laboratories (Fowler 1981, 1984, 1986, 1989, 1994, 1996).
1980年代に始まって、音声知覚の直接的な写実主義者の理論(DRT)として参照されるMTの二者択一の選択は、ハスキン研究所で研究していたキャロルフォウラー(フォウラー 1981, 1984, 1986, 1989, 1994, 1996)によって発展させられた。

Like MT, DRT claims that the objects of speech perception are articulatory rather than acoustic events.
MTのようにDRTたちは、音声知覚の対象は音響的事象よりもむしろ明瞭な音の事象であるということを批判した。

However, unlike MT, DRT asserts that the articulatory objects of perception are actual, phonetically structured, vocal tract movements, or gestures, and not events that are causally antecedent to these movements, such as neuromotor commands or intended gestures.
しかしながら、MTと違って、DRTたちは、知覚の調音の対象は下実的で音声上で構成され、音の広がりの筋肉運動であり、または身振りであり、神経運動命令やその代わりとなる身振りのような動きに先行するような
原因が先立つものではないと断言した。

DRT also contrasts sharply with MT in denying that specialized (i.e., speech-specific or human-specific) mechanisms play a role in speech perception.
DRTたちは特殊化された(たとえば、明確なスピーチや明確な人間のように)メカニズムが音声知覚の役割を演じることをMTを用いてシャープに否定しながら対照していた。

Instead, following the general theory of direct perception developed by James J. Gibson (1966, 1979), Fowler argues that speech perception can be broadly characterized in the same terms as, for example, visual perception of surface layout
その代わりに、ジェームズJギルビン(1966,1979)フォウラーによって発展させられた直接的認知の一般的理論にしたがって、音声知覚が例えば表面のレイアウトの資格の認知など同じ期間において広く特徴を述べられたということを論じた。

This view is elegantly summarized by Fowler (1996) in the following passage:
この見地は、次の一説ではフォウラーによって 優美にまとめられている。

Perceptual systems have a universal function.
認知システムは、一般的な機能を持っている。

They constitute the sole means by which animals can know their niches.
そららは、動物がその適した場所を知るようにただ一つの意味を構成している。

Moreover, they appear to serve this function in one way:
さらに、それらは、一方通行においてこの昨日を使えるために現れる。

They use structure in the media that has been lawfully caused by events in the environment as information for the events.
それらはイベントに対しての情報にしたがって環境によって適法に起こるメディアの構成を利用する。

Even though it is the structure in media (light for vision, skin for touch, air for hearing) that sense organs transduce, it is not the structure in those media that animals perceive.
それが、感覚器官が変換するメディア(知覚のための光、触れることのための肌、聞くための空気)の構成であるけれども、動物の知覚においては、その構成はそうではないのである。

Rather, essentially for their survival, they perceive the components of their niche that caused the structure. (p. 1732)
むしろ、生き残るために必然的に彼らは、構成において引き起こされる彼らの適所の構成要素を認知している。

Thus, according to DRT, a talker's gestures (e.g., the closing and opening of the lips during the production of /pa/) structure the acoustic signal, which then serves as the informational medium for the listener to recover the gestures.
このようにして、DRTにしたがって、話しての動き(例えば、パという音を生成される間唇が閉じたり、開いたりすること)は、音響的信号を組み立てる。それは、身振りを回復させるために聞き手に対しての情報の手段として、務めるのである。

The term "direct" in direct realism is meant to imply that perception is not mediated by processes of inference or hypothesis testing; rather, the information in the acoustic signal is assumed to be rich enough to specify (i.e., determine uniquely) the gestures that structure the signal.
直接現実主義における"direct"という養護は、知覚が推論の過程または仮説検証によって成立させるのではなく、むしろ、音響的信号における情報が、信号を構成する身振りを十分に明示される(例えば、特別なものとして詳細記述される)ことが当然である。

To perceive the gestures, it is sufficient for the listener simply to detect the relevant information.
身振りを認知するために、適切な情報を見つけることは聞き手にとって十分である。

The term "realism" is intended to mean that perceivers recover actual (physical) properties of their niche, including, in the case of speech perception, phonetic segments that are realized as sets of physical gestures.
"realism"という用語は、認知者は現実の(物理的な)、音声知覚の場合は、物理的な身振りの利点として認識される音素の区切りを含む生態地位の財産を取り戻す。

This realist perspective contrasts with a mentalistic view that phonetic segments are "internally generated, the creature of some kind of perceptual-cognitive process" (Hammarberg 1976, p. 355; see also Repp 1981).
この現実的な考え方は音素の区切りが"内部で発声し、認知的認識の過程のいくつかの種類の所産である精神的な見地と対象させている。(ハマーバーク1976年355ページまた1981年のも参照)

Just as MT was motivated in part by a particular view of speech production (especially, the claim that coarticulation of consonants and vowels results in a complex mapping between phonemes and vocal tract shapes and hence between phonemes and acoustic signals), DRT was seen as broadly compatible with an alternative view of speech production (Fowler 1980, 1981; Fowler & Smith 1986).
MTの人達が話し言葉の生産(特に、子音と母音の発音が音素と声の形の間にそして音素と音響的信号の間に複雑な結果をもたらすという批判)、の特有の見地によってある程度動機づけられてように、DRTたちは、話し言葉生成の交互的な見地で矛盾なく大まかに一致していると見られた。

According to this view, the temporal overlap of vowels and consonants does not result in a physical merging or assimilation of gestures; instead, the vowel and consonant gestures are coproduced.
この見地によると、母音と子音の一時的な重なりは、
物理的合併または、身振りの同化に結論付けられるのではない。そのかわり、母音と子音の身振りは共に生み出されるのである。

That is, they remain, to a considerable extent, separate and independent events analogous to, say, a singer's vocal production and any temporally overlapping musical accompaniment.
これはいわば、考慮すべき広さ、分離、独立性の事項に類似して、それは、歌手の声の生成と一時的に重なる音楽的な伴奏である。

Because coproduced gestures are assumed to structure the acoustic signal in independent (albeit temporally overlapping) ways, the listener should, on the assumptions of DRT, have no difficulty recovering those gestures and their temporal sequencing.
協生産された身振りは、独立した方法(たとえ一時的な重なりだとしても)で音響的信号を構成することが当然だと思われるから、聞き手は、DRTの仮説について、これらの身振りや一時的な連続を
取り戻すことに困難はないのである。

Fowler & Smith (1986) likened the perception of coproduced segments to a kind of "vector analysis" in which complex stimulus events are appropriately factored into separate components.
フォーラーとスミス(1986年)は協生産の区切りの知覚を一種のベクトル分析に例えた。それは、複雑な刺激事象が、分離した構成要素に適切に分解するのである。

For example, in the context of a following nasal consonant (e.g., /n/), a vowel tends to be nasalized, an effect known as anticipatory coarticulation.
例えば、次のような鼻にかかる子音(例えばn)の文脈において、母音は、鼻音化する傾向があり、先行する調音結合として知られている効果である。

However, listeners appear not to hear the vowel as nasalized, instead attributing the nasalization to the following consonant alone (Krakow et al. 1988).
しかしながら、聞き手は鼻音化して母音を聞くよう姿を見せることはない。その代わり、次のように子音がそれだけで鼻音化に帰するのである。(クラコーなど1988年)

Because MT and DRT both claim that the objects of speech perception are gestures (intended in the case of MT, actual in the case of DRT), advocates of the two theories cite some of the same empirical findings as supporting evidence.
MTとDRTは、音声知覚の対象が身振りであること(その代わりMTの場合、DRTの事例の事実上の)を批判したので、二つの理論の主唱者は、それぞれが指示ずる証拠として同じ経験的な発見をいくつかを引用している。

Thus, for example, the fact that /di/ and /du/ (see Figure 1) are perceived as having the same initial consonant (despite their disparate F2 transitions) is explained both by Liberman et al.
(1967) and by Fowler (1996) in terms of an assumed commonality of gestures in the two cases.
このように、例えば/di/と/du/(図1参照)は最初は同じ子音(自暴自棄名F2の遷移)を持っているように知覚されるという事実は、2つの場合の身振りの確かな共通性でライブマンら(1967年)やフォウラー(1996年)によってどちらも説明されている。



In the mid 1970s, several new empirical findings posed a challenge to MT, the then-dominant account of human speech perception.
1970年代の半ばに、いくつかの新しい経験主義の発見がMTらへの挑戦を提出した。それは、人間の音声知覚の優勢な説明であった。

Earlier work at Haskins Laboratories had found clear differences between perception of certain speech sounds and perception of nonspeech analogs of those speech stimuli (Liberman et al. 1961a,b; Mattingly et al. 1971).
それより早いハスキン研究室の仕事では、いくつかの話し言葉の音と、これらの話し言葉の刺激の非言語的類似物の知覚の間にはっきりとした違いを見つけた。

Because these results appeared to underscore the special nature of speech perception, they were interpreted as supporting MT (Liberman et al. 1967, 1972).
これらの結果は、音声知覚の特別な自然を力説して現れたので、かれらは、MTのサポートとして解釈された(ライブマンら、1967,1972)。

However, Stevens & Klatt (1974), Miller et al. (1976), and Pisoni (1977) showed that in some instances perception of speech stimuli does parallel that of nonspeech stimuli provided they share critical temporal properties.
しかしながら、スティーブンとクラット(1974年)、ミラーら、そしてピソニー(1977年)は、話し言葉の刺激のいくつかの例の知覚においては、批判的な一時的所有を分け合った話し言葉によらない刺激が平行するということだった。

The authors claimed that general auditory mechanisms were responsible for the observed similarities in perceptual performance.
その著者は、一般的な聴覚のメカニズムは、認知的な
性能において観察される類似性に対して、責任がある。

Even more surprising were demonstrations that nonhuman animals exhibit aspects of speech perceptual performance (Kuhl & Miller 1975, 1978) that were assumed by motor theorists to be unique to humans (Liberman et al. 1972).
より多くの驚くべきことさえ、証明された。それは、人間ではない動物が話し言葉の認知的な演技を様相を示した(クールとミラー 1975年、1978年)。それは、人にとって特異であるという運動神経理論によって事実だとされた。(ライブマンら1972年)

Some of these parallels between speech and nonspeech perception and between speech perception in humans and nonhumans are described later in more detail.
音声と非音声知覚において、また、人と人以外の話し言葉の知覚のこれらの合い等しいことは、後で詳しく述べられている。

Stimulated by these and related findings, a number of speech investigators [e.g., Diehl 1987; Diehl & Kluender 1989a,b; Holt et al. 1998; Kingston & Diehl 1994, 1995; Kluender 1994; Kuhl 1986; Lotto 2000; Massaro & Oden 1980; Nearey 1990; Nearey & Hogan 1986; Ohala 1996; Pastore 1981; Sussman et al. 1998 (see Lane 1965 for an early critique of MT)] have explored alternatives to both MT and DRT, which will be referred to here as the general approach (GA).
これらやその後の発見に刺激される形で、多くのスピーチ研究者達(ディール1987年、ディールとクルーンダー1989、クルーンダー1997年、クール1986年、ロト2000年、マッサロとオーデン1980年、ネアリー1981年、ネアリーとホーガン1986年、オーラ1996年、パストー1981年、サスマンら1988年(MTの早期の評論に対するレイン1965年を見よ)は、MTとDRTのどちらに倒しても二者択一を探った。

In contrast to MT, GA does not invoke special mechanisms or modules to explain speech perception.
MTと対照的に、GAらは、特別なメカニズムやモジュールを音声知覚にを訴えることをしなかった。

Rather, it assumes, as a working hypothesis, that speech sounds are perceived using the same mechanisms of audition and perceptual learning that have evolved in humans or human ancestors to handle other classes of environmental sounds.
むしろ、作業仮説として、話し言葉の音は、環境的な音のほかのクラスを扱うための人や人の
祖先の進化がもたらす音響的認知的な学習の同じメカニズムを使って認識されるのであるようと思われる。

In contrast to MT and DRT, GA assumes that listeners' recovery of spoken messages from the acoustic signal (whether these messages are construed as distinctive features, phonemes, words, or some higher-level linguistic units) is neither equivalent to nor mediated by the perception of gestures.
MTやDRTと対照的に、GAらは、音響的信号から話されたメッセージの聞き手の再現(これらのメッセージが弁別的素性、音素、単語、高レベルの言語的なユニットがどこにあるか)は身振りの知覚によって同等でもないし、仲裁されるものでもない。

Recall that the perceived equivalence of the consonant in /di/ and /du/ (despite varying acoustic patterns) was cited as supporting evidence for MT and DRT.
知覚された/di/や/du/の子音の認知的な同価値(音響的パタンにもかかわらず)MTやDRTへの証拠をサポートするものとして引用されていることを思い浮かべなさい。

A GA explanation for the perceptual equivalence would be based on the general ability of the perceiver to make use of multiple imperfect acoustic cues to categorize complex stimuli.
認知的な同意義に対するGAのある説明は、複雑な刺激をカテゴリー化するための重複した完全ではない音響的手掛かりに基づいている。

In the same way that Brunswik (1956) proposed that object constancy in vision is the result of combining multiple attributes of varying ecological validity, the listener can maintain perceptual constancy in the face of structured variance in acoustics.
同じようにしてブルンビック(1956年)は視力における対象の不変は、生態学の妥当性を変える結合的な多数の属性であり、聞き手は音響校歌における構成された不一致と直面して認知的な恒久性を維持するのである。

For GA this constancy does not require the recovery of articulatory gestures or a special mode of perception.
GAに対して、この恒久性は、調音の身振りや特別な認知のモードの再生を必要とするものではない。

In support of this view, Kluender et al. (1987) demonstrated that birds could be trained to respond to natural /d/-initial syllables versus /b/- and /g/-initial syllables.
この見地をサポートしていく上で、クルンダーら(1987年)は鳥が/b/や/g/の最初の音節に対する/d/の最初の音節に自然に反応する訓練が可能であるということを論証した。

Despite the lack of any specialized mechanisms or experience producing speech, the birds were able to correctly respond to the same consonants in novel vowel contexts.
特殊化されたメカニズムやスピーチを生産する経験の欠如にもかかわらず、鳥は、新しい母音の文脈における同じ子音に正しく反応することができる。

GA is labeled an approach rather than a theory because, as summarized in preceding paragraphs, it is quite abstract, defining itself mainly by its opposition to key claims of MT and DRT.
GAは理論よりはむしろ一つのアプローチとして分類された。生産する段落において概略化されるように、それは全く抽象的であり、MTとDRTのキーになる批評に反対することによって主にそれ自身否定するように。

At this level of abstraction, GA has too little content to be falsifiable.
抽象化のレベルにおいて、GAは小さすぎる中身で分類することができない。

However, it does provide a general framework within which particular theoretical claims may be formulated and tested.
しかしながら、特異な理論的な批評が明確に述べられテストされるかもしれない一般的な骨組みで生成される。

Examples of such claims are reviewed in the following sections.
そのような批評の例は、次の章で批評することにする。

Table 1 presents a simplified taxonomy of the major theoretical approaches to speech perception based on the postulation of special versus general mechanisms and on the proposed objects of perception.
表1は、一般的に対する特別なメカニズムの過程において、また、認知の提案された対象において基づく音声知覚の主要な理論的なアプローチの分類学を簡易化してあらわしたものである。

The lower left quadrant corresponds to a possible claim that speech perception uses special mechanisms to recover a nongestural representation of linguistic elements.
低い左の四分円は、音声知覚が、言語要素の身振りによらない表現を取り戻すために特別なメカニズムを用いているという一つの可能な批評に一致している。

Although such a claim has not been developed into a coherent theory, there have been several proposals that specialized processes may work in concert with general perceptual mechanisms.
一つの批評は筋の通った理論に発展させられていくことはないにもかかわらず、特別化された過程は一般的な認知メカニズムにしたがって強調され働くのかもしれない。

For example, the ability of human infants to learn the phoneme categories of their native language has been attributed to specialized processes of categorization (Kuhl 1991, 1992, 1993) or to an attentional or learning bias for speech sounds (Jusczyk 1997).
例えば、人間の子どもの母国語の音素カテゴリーを学ぶ能力カテゴリー化の特別化されたプロセスに寄与している(クール1991年1992年1993年)や話し言葉の音声に対する注意的なまた学習の偏見(ジャスジック1997年)に寄与している。

These are listed as "eclectic specializations" in the table.
それらは表では「取捨選択した特別なもの」としてリスト化されている。

Table 1. Taxonomy of major theoretical approaches to speech perception
表1 音声知覚への主要な理論的アプローチの分類学

An important early discovery at the Haskins Laboratories was an effect referred to as categorical perception (Liberman et al. 1957, 1961a,b).
ハスキンス研究所における早期の重要な発見はカテゴリー化された知覚として言及された一つの効果である。(ライブマンら1957年 1961年)

In a typical experiment, a series of synthetic consonant-vowel (CV) syllables varying in an acoustic parameter (e.g., the slope of the F2 transition) and ranging perceptually across several initial consonants (e.g., /bV/-/dV/-/gV/) were presented to listeners for phonemic labeling, or identification, and for discrimination of pairs of stimuli located near each other in the series.
典型的な実験において、音響的パラメータ(例えば、F2の遷移の傾斜)において変化しているまた、いくつかの最初の子音(例えば/bV/-/dV/-/gV/)において統合的な子音ー母音(CV)音素は、音素のラベリング、同定に対して聞き手に表現し、連続においてお互いに知覚配置される刺激のペアの弁別に呈して、表現される。

Two striking patterns were evident in the results.
2つの著しいパタンが結果において明らかになった。
First, labeling functions exhibited abrupt boundaries between phoneme categories; second, discrimination accuracy was close to chance for stimulus pairs within a phoneme category but nearly perfect for stimulus pairs that straddled an identification boundary.
一つ目は、音素カテゴリーの間の不意の境界をあらわす符号化機能である。二つめは、弁別の正確さが音素カテゴリー間の刺激のペアに対する機会に近いが、同定境界をまたがる刺激ペアに対してはほとんど完璧であった。

These are the defining properties of categorical perception.
カテゴリー化した知覚を定義する特性がある。

They imply that in speech perception discriminability is closely related to the presence or absence of functional (i.e., phonemic) differences between sounds.
それらは音声知覚の区別化が音の間における基礎的(例えば音素)な違いに非常に近く関与するということを含んでいる。

Because categorical discrimination functions were not found for certain nonspeech analogs of the speech stimuli (Liberman et al. 1961a,b), the motor theorists cited categorical perception as a hallmark of perception in the "speech mode" (Liberman et al. 1967).
カテゴリー化された弁別の機能は話し言葉の刺激のある言葉によらない類似物に対して見つからない(ライバマンら1961年)ので、運動理論は「話し言葉のモード」の中で知覚の太鼓判としてカテゴリー化された近くを引用している。(ライバマンら1967年)

This section focuses mainly on perception of voice distinctions in syllable-initial stop consonants, for example, /ba/ versus /pa/, /da/ versus /ta/, and /ga/ versus /ka/.
この章では、初音節破裂子音(例えば/ba/と/pa/, /da/と/ta/,そして/ga/と/ka/など)の音声識別の知覚について主に述べていく。

Linguists commonly describe /b/, /d/, and /g/ as having the distinctive feature +voice and /p/, /t/, and /k/ as having the distinctive feature -voice, where the former but not the latter are produced with voicing, or vocal fold vibration.
言語学者は、弁別素性を持つものとして/b/、/d/、/g/をまた、識別できる特徴として/p/、/t/、/k/を共通して記述している。そこでは、前者ではなく、後者が、音声化され、また、音声的な振動を持って生産される。

In a cross-language study of initial stop consonants, Lisker & Abramson (1964) identified a key phonetic correlate of voice contrasts, e.g., voice onset time (VOT), the interval between the release of articulatory occlusion (e.g., the opening of the lips) and the onset of voicing.
初破裂子音のクロス言語の研究において、リスカーとアブラソン(1964年)は音声の構成において鍵となる音素と相互関係にあるものを確認した。それは、例えば有声開始時間(VOT)、調音のふさぎ(例えば唇の開き)と発声の開始の間のようなものである。

Cross-linguistically, initial stops tend to occur in one of three ranges of VOT values: long negative VOTs (voicing onset leads the articulatory release by 50 ms or more); short positive VOTs (voicing lags behind the release by no more than 20 ms); and long positive VOTs (voicing onset lags behind the release by more than 25 ms).
クロス言語的に、初破裂音はVOTの傾向の3つの幅の一つに起こる傾向がある。長く否定的なVOTたち(50ミリ秒かそれ以上までに調音をゆるめることを導く頭字音);そして、短い肯定的なVOTたち(20ミリ秒以内までの緩めることの背景にある音声の遅れ);そして長い肯定的なVOTたち(25ミリ秒以上までの緩められることの背景にある音声の頭字音始の遅れ)。

From these three phonetic types, languages usually choose two to implement their voice contrasts.
3つの音素タイプから、言葉は通常音声の対象を満たすために2つに区別される。

For example, Spanish uses long negative VOTs to realize +voice stops and short positive VOTs to realize voice stops; whereas English uses short positive VOTs to implement +voice stops and long positive VOTs to implement -voice stops.
たとえば、スペイン語では、音声破裂を認識するために長いいて意的なVOTを、音声破裂を認識するために、短い肯定的なVOTを用いる。そこでは、英語では、音声破裂を満たすために肯定的なVOTを、音声破裂を満たすために長い肯定的なVOTを用いる。

Lisker & Abramson (1970, Abramson & Lisker 1970) next examined VOT perception among native speakers of English, Spanish, and Thai.
リスカーとアブランソン(1970年リスカーとアブランソン)は、次に英語、スペイン語、タイ語で、ネイティブスピーカーの間におけるVOTの知覚について検証した。 

All three language groups showed clear evidence of categorical perception.
これらの3言語全ては、カテゴリー化の認知のはっきりとした証拠を示した。

However, the locations of phoneme boundaries and the associated peaks in discriminability varied among the groups, reflecting differences in the way each language realizes voice distinctions.
しかしながら、音素の境界線上の位置や区別の関連づいた最後部は音声の差異を認識するそれぞれの言語において違いを反映しながら、グループ間で広い範囲に渡った。

These results suggested that categorical perception of VOT arises from language experience, with listeners becoming more sensitive to phonetic differences that play a functional role in their language and/or less sensitive to differences that do not.
これらの結果は、VOTのカテゴリー化した認知は、言語経験に起因する。それぞれの言語の基礎的な役割を担ったり、それをしない、違いに対して間隔が弱いことなどをともないながら。

Complicating this language learning explanation were results of experiments performed with human infants.
この言語習得の説明をわかりにくくすることは、人間の幼児について実施された研究の結果によるものである。
Eimas et al. (1971) reported that infants from an English-speaking environment discriminate differences in VOT for stimulus pairs that straddle the English /ba/-/pa/ boundary but show no evidence of discriminating equivalent VOT differences when the stimuli are from the same English category.
エイムズら(1971年)は、英語環境に育った幼児たちは、英語の/ba/と/pa/の境界線にまたがる刺激のペアに対してVOTで違いを区別した。そして、刺激が同じ英語のカテゴリーからのときにVOTの違いの証拠を見い出せなかった。

Consistent with later versions of MT, the authors interpreted these results as evidence of an innate linguistic mode of perception in humans.
MTの後ほどの説明と矛盾することなく、著者は、人間における認知の生得的な言語モードの証拠としてこれらの結果を解釈した。

Further supporting this view, Lasky et al. (1975) found that infants raised in a Spanish-speaking environment can discriminate differences in VOT if the stimuli straddled either the Spanish or the English voice boundary but show no evidence of discrimination otherwise.
この見地をより深く補助するものとして、ラスキーら(1975年)は、スペイン語環境での証拠を高めた幼児は刺激がスペイン語と英語のいずれかをまたぐ音声の境界線の場合別な方法では弁別の証拠を示さなかったということを発見した。

The discriminability of the English voice contrast by Spanish-learning infants suggested that language experience is not a necessary condition for categorical discrimination of VOT stimuli (see also Aslin et al. 1981).
スペイン語を学習している幼児によって英語の音声の対象の区別は、言語経験は、VOT刺激(アスリンら1981年参照)のカテゴリー化の弁別に対して、必要条件ではない。

Recall that categorical perception was claimed by motor theorists to be a hallmark of the speech mode of perception (Liberman et al. 1967).
カテゴリー化した知覚は、近くの音声モード(ライブマンら1967年)に太鼓判を押されている運動理論にようって批判されていることを思い出してほしい。

However, later studies (Miller et al. 1976, Pisoni 1977) yielded convincing evidence of categorical perception for several types of nonspeech analogs of VOT stimuli.
しかしながら、後ほどの研究(ミラーら1976年、ピソニー1977年)はVOT刺激の非音声の類似物のいくつかのタイプに対して、カテゴリー認知の確信させるべき証拠をもたらしている。

In naturally produced stop-vowel syllables, negative VOTs correspond to a low-frequency "voice bar" that precedes the articulatory release, whereas positive VOTs are associated with a sharp attenuation of F1 before voicing onset (see Figure 2A .)
自然に生産される破裂母音の音節において、否定的なVOTは調音の開放を生産する”音声の障壁”つまり低い周波数に一致する。ところが肯定的なVOTは音声の頭字音に(図2Aを見よ)第1フォルマントの鋭い希薄化に関連している。

VOT can thus be abstractly described as the relative onset time of low- versus high-frequency signal components.
VOTは、高い周波数の信号要素に対して低いほうも関係する頭字音として抽象的に記述されることができる。

Pisoni (1977) created nonspeech analogs of VOT stimuli that consisted of a lower and a higher frequency tone with onsets varying from 50-ms tone onset time (TOT) to +50-ms TOT, where negative values indicate prior onset of the lower-frequency tone (see Figure 2B ).
ピソニー(1977年)は50ミリ秒の音の開始時間(TOT) から50秒のTOTまで分布している頭字音においてより低いまたより高い周波数の音を考慮するVOT刺激の音声によらない類似系を生み出した。

After training in labeling selected stimuli, adult listeners displayed abrupt identification boundaries near 20 ms and +20 ms TOT values (analogous to the Spanish and English VOT boundaries) as well as peaks in discriminability near those boundaries.
選ばれた刺激をラベル化する訓練の後に、大人の聞き手は境界線に近い区別のピークと同じように、20ミリ秒と20ミリ秒のTOTに近い境界線の不意な同定をあらわした。(それは、スペイン語と英語のVOTの境界線の類似である。)

Similar bimodal discrimination performance for TOT stimuli was observed for infants (Jusczyk et al. 1980).
TOT刺激に対する同じような最頻値の弁別の実行は幼児によって観察された。(ジャスジックら1980年)

The close parallel between categorical perception of VOT and TOT stimuli was attributed by Pisoni (1977) to a psychophysical threshold for detecting the temporal order of stimulus components (Hirsh 1959, Hirsh & Sherrick 1961).
VOTのカテゴリー化された近くとTOT刺激の間のとても近い相似は、ピソニー(1977年)によって、刺激要素の時間的な命令を見つけるのに対して心理学的な入り口よるものだとされた。(ハーッシュ1959年、ハーッシュとしぇリック1961年)

By this account, onset asynchronies of less than approximately 20 ms are judged as simultaneous, while those greater than that are judged as ordered in time.
この説明によって、おおよそ20ミリ秒以下の頭字音の同時性は同時のものとして判断され、一方それ以上の時間のかかるものは、時間内に命令されるものとして判断される。


This yields three natural categories of onset asynchrony that correspond well to the three phonetic voice categories commonly used among the world's languages.
このことは世界の言語の間で共通して使われる3つの音素の音声カテゴリーに正しく対応する頭字音の同時性の3つの自然なカテゴリーを産する。

Thus, in the case of VOT, languages appear to locate phoneme contrasts to exploit natural auditory boundaries, thereby enhancing distinctiveness, intelligibility, and perhaps learnability.
このようにしてVOTの場合は、言葉は、自然な聴覚の境界線を開発するための音素対象に移動して現れる。

View larger version (38K)
大きな説明を見なさい。

Figure 2. Spectrograms of (A) natural stop-vowel syllables with a voicing lead (negative VOT), short voicing lag (approximately 0 VOT), and long voicing lag (positive VOT) stop consonants.
図2 (A)音声で先導される自然な破裂母音の音節のスペクトラム(否定的VOT)、短い音声の破裂(おおよそ0のVOT)、そして長い音声の遅れの(肯定的VOT)破裂子音。

VOT is measured from the articulatory release (onset of formant transitions) to the onset of voicing, represented as low-frequency energy; and (B) corresponding TOT stimuli.
VOTは音響的開放(フォルマント遷移の頭字音)から音声の開始まで測定される。そこでは低い周波数のエネルギーとして表れ、(B)TOT刺激と一致する。

These consist of two sine-wave segments that vary in relative onset time. (Adapted from Pisoni 1977.)
関係する頭字音の時間を変える2つのサインカーブの区切りの存在(ピソニー1977年からの適合)

The finding that categorical perception is not unique to speech sounds weakened one of the empirical arguments for MT.
カテゴリー化した知覚が話し言葉の音においては特異ではないという発見は、MTに対して経験的な論議の一つを弱められた。

An even more serious challenge was raised by results of experiments with nonhuman animals.
あるもっと重大な挑戦が、人間ではない動物の実験の結果によって掲げられている。

Liberman et al. (1972, p. 324) had written:
ライブマンら(1972年324ページ)で次のように書いている。

Presumably, they [animals] lack the special processor necessary to decode the speech signal.
思うに、彼ら(動物たち)は音声信号を平文に直すことに特別な処理装置の必要を欠いているのである。

If so, the perception of speech must be different from ours.
もし、そうだとしたら、音声の近くは我々のものと異なるはずである。

They should not hear categorically, for instance, and they should not hear the [di]-[du] patterns as two segment syllables which have the first segment in common.
かれらは、カテゴリー化して聞いているのではない。例えば、彼らは[di]と[du]のパタンを最初の音素を共通する2つの音素の音節として聞いているわけではない。

As for the /di/-/du/ example, it was pointed out earlier that Kluender et al. (1987) trained Japanese quail to respond to /d/-initial tokens, but to refrain from responding to /b/- and /g/-initial tokens, in various vowel contexts.
/di/と/du/の麗のようにクルーンダーら(1987年)は/d/の最初の証拠に反応させるために日本の鶉を調教した。しかし広がった母音の文脈においては、b/と/g/で始まる証拠に反応することを避けた。

With respect to the claim that categorical perception is a uniquely human ability, Kuhl and her colleagues (Kuhl 1981; Kuhl & Miller 1975, 1978; Kuhl & Padden 1982) presented strong evidence of categorical perception of human speech sounds by chinchillas and macaque monkeys.
カテゴリー知覚は独自の人間の能力であるという批判に反応して、クールと彼女の同僚(クール1981年、クールとミラー1975年、1978年、クールと派ドン1982年)はチンチラとマカクサルにおいて人間の音声の音のカテゴリー近くの強い証拠を発見した。

For example, Kuhl & Miller (1978) trained chinchillas to respond differently to two endpoint stimuli of a synthetic VOT series (/da/, 0 ms VOT; and /ta/, 80 ms VOT) and then tested the animals with stimuli at intermediate values.
例えば、クールとミラー(1978年)は総合的なVOTの連続(/da/0ミリセカンドVOTと/ta/80ミリ秒VOT)の2つの最後の点の刺激を異なって反応するように調教した。そして、中間の勝ちに対する刺激で動物はテストされた。

Their identification performance corresponded almost exactly to that of adult English-speaking listeners.
かれらの同定であることのできばえは、大人の英語の聞き手のそれよりも全く持って一致した。

Further generalization tests with labial (/ba/-/pa/) and velar (/ga/-/ka/) VOT stimuli, as well as tests of VOT discriminability (Kuhl 1981), also showed close agreement with the performance of English speakers.
唇音の/ba/と/pa/そして、軟口蓋の/ga/と/ka/のVOT刺激を使ってのより深い一般化を目指す実験においても、英語の話し手の実績において、近い同意が示された。

Several neural correlates of categorical perception of VOT have been reported.
VOTのカテゴリー近くの相互に関係のあるいくつかの神経が報告された。

Recording from a population of auditory nerve fibers in chinchilla, Sinex et al. (1991) found that cross-neuron variability in discharge patterns was reliably smaller for VOT stimuli near the English voice boundary than for stimuli located within either category.
チンチラの音響神経の束の個体群の記録により、シネックスら(1991年)はクロス神経の排出パタンの分布はいずれのカテゴリー内に位置する刺激に対するものより英語の音声境界線に近いVOT刺激に対しての方が有意に小さいことを発見した。

In a magnetoencephalographic study of the human primary auditory cortex, Simos et al. (1998) found that VOT stimulus pairs straddling the English voice boundary yielded differences in the location and amplitude of the peak response for native English-speaking listeners, whereas stimulus pairs drawn from the same category did not.
人間の最初の音響大脳皮質の電磁気脳造影による研究において、サイモスら(1998年)は英語の音声の境界線にまたがるVOT刺激のペアは位置の違いを産し、英語を母国語とする聞き手に対してピークの反応の十分であることを発見した。そこでは同じカテゴリーからの刺激のペアは発見されていない。

Although this discussion has focused on perception of VOT, other speech dimensions that are perceived categorically by humans appear to be perceived categorically by nonhumans as well.
この論議はVOTの知覚に焦点化されたにもかかわらず、人間によってカテゴリー化されて知覚されたほかの音声範囲は、人間ではないものによってカテゴリー化されて近くされたものと同じように現れる。

Kuhl & Padden (1983) reported that macaques show enhanced discriminability at phoneme boundaries for the feature place of articulation (/b/-/d/-/g/), and Dooling et al. (1995) found that budgerigars and zebra finches show enhanced discriminability at the English /r/-/l/ boundary. クールとパドン(1983年)はマカクサルが(/b/と/d/と/g/)のはっきりした発音の場所の特徴に対して音素の境界に区別を高めることを示した。そして、ドゥーリングら(1995年)はセキセイインコやシマウマフィンチは英語の/r/と/l/の境界線における区別を高めることを示した。

In both studies, discrimination performance of the animals closely matched that of human listeners.
両方の研究により動物の弁別性能が人間の聞き手のそれと近く適合した。

The results of comparing speech and nonspeech perception and speech perception in humans and nonhumans strongly indicate that general auditory mechanisms (common to human adults and infants, other mammals, and even birds) contribute to the categorical perception of speech sounds.
音声と音声でないものの知覚や人間と人間でないものの音声知覚を比較した結果は、一般的な音響メカニズム(人間の大人と幼児及び哺乳動物また、鳥でさえ)音声のカテゴリー近くに寄与していることを強く示した。

Evidently, however, language experience is also a significant factor in categorical perception.
しかしながら、明らかに言語経験もまたカテゴリー近くの顕著な要因である。

Lisker & Abramson (1970, Abramson & Lisker 1970) found cross-language differences in identification boundaries and discrimination peaks (see also Elman et al. 1977, Williams 1977).
理スカートアブランソン(1970年、アブランソンとリスカー1970年)は、同定の境界におけるクロス言語の違いと弁別のピークを発見した。(エルマンら1977年、ウィリアム1977年を参照)

Although human infants exhibit heightened discriminability at both the Spanish and English voice boundaries, their language experience tends to maintain and perhaps enhance natural boundaries that coincide with phonemic boundaries and to downgrade natural boundaries that are linguistically nonfunctional (Werker & Tees 1984).
人間の幼児がスペイン語と英語のどちらもにおいて高められた区別を現すけれども、彼らの言語経験は、音素の境界において同時に起きる自然な境界を維持し、たぶん高める傾向があり、言語的に非機能的である自然お境界に格下げする傾向がある。(ワーカーとティーズ1984年)。

In organizing their sound systems, languages exploit natural boundaries, but, within limits, they also modify them.
彼らの音のシステムを組織することにおいて、言語は自然な境界を開発し、しかし限界の範囲内でそれらは修正するのである。

The perceptual assessment of temporal cues for certain phoneme distinctions is known to depend on the duration of nearby regions of the acoustic signal (Diehl et al. 1980, Miller 1987, Summerfield 1981).
ある音素の区別に対する一時的なきっかけの認知的な評価は、音響的信号の知覚の領域の持続によることが知られている。(ディールら1980年、ミラー1987年、サマーフィールド1981年)

For example, Miller & Liberman (1979) found that perception of the stop/glide distinction (e.g., /b/ versus /w/) is influenced by the duration of the following vowel.
例えば、ミラーとライブマン(1979年)は停止/渡り音の区別の認知は、それに続く母音の持続(例えば/w/に対する/b/のように)によって影響されることを発見した。

Earlier research (Liberman et al. 1956) had demonstrated that the stop/glide distinction is reliably signaled by variation in the duration and slope of CV formant transitions, with shorter transitions specifying the stop category.
それ以前の研究(ライブマンら1956年)は、停止/渡り音の区別は、停止カテゴリーを明示するより短い移り変わりを使って、持続の変動またはCV型の遷移の傾斜によって信頼されて合図されるということを論証した。

The key result of Miller & Liberman (1979) was that a longer following vowel shifted the stop/glide boundary toward longer transition durations (i.e., more stops were perceived).
ミラーとライブマン(1979年)の鍵になる結果は、長いそれに続く母音は、より長い遷移の持続に向かって停止/渡りの境界に転じていくということである。

Miller & Liberman explained this effect within the framework of MT: A longer vowel is evidence of a slower rate of articulation, and, to compensate perceptually, listeners accept a greater range of transition durations as compatible with the stop category.
ミラーとライブマンは、この効果をMTの骨組みの中で説明した。一つの長い母音は発音のゆっくりした割合の証拠であり、認知的に償うために、聞き手は停止カテゴリーを使って相互性のあるものとして遷移の持続の幅を大きくして受け入れるのである。

Diehl & Walsh (1989) offered an alternative account of this stimulus length effect based on a putative general auditory factor referred to as durational contrast.
ディールとワルシュ(1989年)は、持続的な対照としてふれられている推定上の一般的な音響余韻に基づく刺激の長さの効果の二社選択の説明を申し出た。

According to this account, perceived length of an acoustic segment is affected contrastively by the duration of adjacent acoustic segments.
この説明によると、音響的区切りの認知される長さは隣接した音響の区切りの持続によって対照的に作用される。

Thus, a target segment will be judged as shorter next to a long segment than next to a short segment.
このようにして、目的とする区切りは短い区切りよりも長い区切りにより隣接して判断されるであろう。

Unlike the motor theoretic explanation of the stimulus length effect, the durational contrast hypothesis applies to both speech and nonspeech sounds.
刺激の長さの効果の運動理論の説明とは異なって、持続的な対象の仮説は、音声と非音声の音の両方において適用するのである。

To distinguish empirically between the two accounts, Diehl & Walsh compared labeling performance on several series of /ba/-/wa/ stimuli and on analogous nonspeech stimuli.
2つの根拠の間を経験的に識別するために、ディールとワルシュは/ba/と/wa/のいくつかの連続における唇音のの言語作用や非言語刺激の類似した刺激について比較した。

The latter consisted of single sine-wave stimuli that mimicked the F1 trajectories and amplitude rise times of the speech stimuli.
後者は、第一フォルマントの曲線ににた単純なサインカーブの刺激と音声刺激の振幅時間である。

Listeners were asked to categorize the nonspeech items as having either abrupt or gradual onsets.
聞き手は不意または漸進的な頭字音のいずれかとして非音声項目をカテゴリー化するよう求められる。

When the stop/glide distinction was signaled by changes in transition duration, there was a reliable stimulus length effect like that observed by Miller & Liberman.
停止または渡りの区別が遷移の境界における変化によって合図された。

A very similar effect was found for the corresponding nonspeech stimuli.
まさに同じ効果が一致する非音声刺激に発見された。

Changes in rise time had only a small effect on identification of either the speech or nonspeech stimuli.
上昇時間における変化は、音声でも非音声の刺激のいずれでも同定であることを認めるには小さな効果に過ぎなかった。

Indeed, for seven of eight comparisons (main effects and interactions) involving the factor speech versus nonspeech, there were no significant differences in labeling performance.
実は、音声と非音声の要素を含む7,8の比較(効果と相互作用)においては、言語化の行為において特に明確な違いはないのである。

(The one exception was that when the stop/glide distinction was cued by rise time, there was a reliable stimulus length effect, but no such effect occurred for the corresponding nonspeech stimuli.)
(一つの例外は、停止/渡りの区別が、上昇時間によって上昇する時、信頼できる刺激の長さがあり、しかし、そのような効果は一致する非音声刺激に対して、起きるということである。)

On balance, the parallel results between the speech and nonspeech conditions supported the durational contrast account of the stimulus length effect.
全てを考慮してみると音声と非音声の条件の間の並列する結果は、刺激の長さの効果の時間弁別的対象説明を補助した。

(For a critique of this conclusion from the perspective of DRT, see Fowler 1990, 1991, and for a reply see Diehl et al. 1991.)
DRTの考え方によるこの結末の批評に対して(フォウラー1990年、1991年そして、ディールら1991年を見よ。)

As described earlier, phonemes are coarticulated in running speech.
前にも述べたように、音素は、回転スピーチにおいて再調音される。

Consider the production of the CV syllables /da/ and /ga/ in English.
英語の/da/や/ga/のCV音節の生成を考えなさい。

In isolation, /d/ is typically produced with an occlusion anterior in the vocal tract as the tongue tip makes contact with the roof of the mouth.
単独で、/d/は典型的に舌の先がが口の上あごで作るように音声の広がりの前の遮蔽を伴い生成される。

In contrast, /g/ is produced with a posterior occlusion created by the tongue body.
対照的に/g/は舌自体によって作り出される後の遮断を伴い生成される。

However, the place of articulation for these CVs changes when they are produced in the context of a preceding /al/ or /ar/ syllable (e.g., /al da/).
しかしながら、/al/や/ar/の音節(例えば、/al da/のように)の生成の文脈において生成されるときこれらのCVの変化に対する再調音の場所が変化する。

The anterior articulation of /l/ leads to /d/ and /g/ occlusions that are closer to the front of the mouth, whereas the more posterior production of /r/ shifts the /d/ and /g/ occlusions in the opposite direction.
/l/の先の発音は/d/や/g/の遮断に導かれる。それは、口の正面により近い。それゆえ、/r/のより前の生成が反対の方向において/d/や/g/の遮断に移動するのである。

Because the acoustics of speech sounds are a function of the position and movement of the articulators, coarticulation results in context-sensitive acoustics for phonetic segments.
音声の音響は、位置の機能と調音器官の移動であるゆえ、調音結合は、音素の区切りに対して文脈間隔的な音響の結果になる。

For example, /da/ and /ga/ are differentiated in part by the onset frequency of F3; as a result of its more anterior place of articulation, /da/ typically has a higher-frequency F3 onset than /ga/.
例えば、/da/や/ga/は第3フォルマントの始まりの周波数によってある程度識別される。それは、はっきりとした発音のより時間が前の場所の結論のように。/da/は典型的に/ga/よりより高い周波数である第3フォルマントの始まりを持っている。

When produced following /al/, CVs will have a higher F3 frequency onset, due to the shift in place of articulation, than when produced following /ar/.
続く/al/を生産された時、CVはより高い第3フォルマトの始まりを持っている。それは、続く/ar/が生成されるときよりもはっきりとした発音の場所に移動する義務がある。

With this in mind, consider the cases of /al ga/ and /ar da/ in which an anterior and a posterior production are paired.
この心の中では、より時間が前の、時間が後ろのがペアとなって/al ga/や/ar da/の場合を考えなさい。

The /al/ raises the F3 onset frequency of /g/, whereas the /ar/ lowers the F3 onset frequency of /d/.
/al/は/g/の第3フォルマントの開始周波数を上昇させる。そこでは/ar/は/d/の第3フォルマントの周波数を低くすることになる。

The result is that the acoustics of the CVs in these two disyllables are quite similar.
結果は、これらのCVの音響学は二音節語のが全く同じであるということである。

A recognition system that simply matched the formant transitions of the consonant to templates for /da/ and /ga/ would have trouble identifying these ambiguous consonants.
/da/や/ga/に対する鋳型への子音のフォルマント遷移に単に適合した認識のシステムは多義の子音を見分ける困難を持っているだろう。

How do human listeners contend with the context-sensitive acoustics of phonemes?
人間の聞き手は音素の文脈感覚の音響をともなってどのように論争するのだろうか。

To answer this question, Mann (1980) presented listeners with a series of synthesized CVs varying in F3 onset frequency from a good /da/ to a good /ga/.
この質問に答えるために、マン(1980年)はよい/da/からよい/ga/へ第3フォルマントの開始周波数において合成されたCVを変更しながらの連続を伴って聞き手に提示した。

These target syllables were preceded by natural productions of the context syllables /al/ or /ar/ (with a 50-ms intersyllabic silent gap).
これらの目的とする音節は、文脈音節の/al/や/ar/の自然な生成によって先導されている。(50ミリ秒の音節間の静かな差を伴って)

Listeners' identifications of the target CVs shifted depending on the preceding context.
目的となるCVの聞き手の同定は先立つ文脈に依存して移動する。

More /ga/ responses were made following /al/ than following /ar/.
さらに/ga/の反応は、それに続く/ar/よりもそれに続く/al/を作られる。

These context-moderated perceptions are in the opposite direction of the effects of coarticulation.
これらの節度のある文脈知覚は、調音結合の効果の反対の方向にある。

In production, /al/ contexts lead to more anterior or /da/-like productions.
生成において、/al/の文脈は、より前または/da/のような生成に導かれる。

In perception, /al/ contexts lead to more /ga/ identifications.
知覚において、/alの文脈はより多くの/ga/の同定に導かれる。

Perception appears to compensate for the effects of coarticulation.
知覚は、調音結合の効果に対して償うことに表われる。

Coarticulatory effects on acoustics and apparent perceptual compensation have also been demonstrated for consonant contexts and vowel targets (Holt et al. 2000, Lindblom & Studdert-Kennedy 1967, Nearey 1989), vowel contexts and consonant targets (Holt 1999, Mann & Repp 1981), and vowel contexts with vowel targets (Fowler 1981).
調音の再調音効果とはっきりした認知的な償いは、子音文脈と母音標的(ホルトら、2000年、リンドブロンとスタアートケネディ1967年、ニアリ1989年)、母音文脈と子音標的(ホルト1999年、マンとレップ1981年)、そして母音標的を伴う母音文脈(フォウラー1981年)に対して論証される。

Whereas context-sensitive acoustics are problematic for accounts of speech perception that rely on acoustic pattern recognition of phonemes, these results support predictions of theories that propose gestures as the objects of speech perception.
文脈感覚の調音学が音素の音響的パタン知覚に頼る音声知覚の説明に対して不確かであるゆえ、これらの結果は、音声知覚の対象として手振りを提案する理論の予言を補助している。

The mapping between acoustics and perception is not transparent, but the mapping from intended gesture and perception is straightforward.
調音と知覚の間のマッピングは、透明ではない、しかし、意図された手振りと知覚のマッピングは正直である。

Intended and perceived gestures are consistent even though the acoustics are variable.
意図され知覚された身振りは、音響が変わりやすいとしてさえも、首尾一貫している。

According to MT, the intended gesture is recovered by accessing tacit knowledge of the acoustic consequences of the candidate articulatory motor commands (Mann 1980).
MTにしたがって、意図された手振りは、多分調音の運動命令による音響的結果の接近暗黙知識によって取り戻される。

According to DRT, acoustics are parsed into responsible gestures as a result of the ensitivity of the perceiver to the dynamics of articulation.
DRTにしたがって、超音楽は、明確な発音の力学への錯覚者の感覚の結果として責任のある身振りに説明を求める。

From this view, effects of coarticulation serve as information for the identity of the context segment as opposed to obfuscators of the identity of the target segment.
この見地から、調音結合の効果は、対象とする区切りの同一のぼんやりさせることに反対するように文脈の区切りの同一に対する情報のように給仕される。

Regardless of the mechanism, the factoring of the speech stream into gestures appears to occur independent of any linguistic representation.
そのメカニズムにもかかわらず、身振りへの音声の流れの要因は、どんな言語的な表現の独立を起こすことが表われる。

Mann (1986) demonstrated that the contexts /al/ and /ar/ can shift CV identification by Japanese speakers who cannot distinguish /r/ and /l/ (as both sounds are mapped to a single phoneme in Japanese).
マン(1986年)は、/al/や/ar/の文脈は/r/や/l/の区別ができない日本の話してによってCVの同定を移動させることができる。(どちらも音も日本ごの単音素へ分類される)

In addition, Fowler et al. (1990) found similar context-dependent shifts in responses of 4- to 5-month-old infants.
さらに、フォウラーら(1990年)は4、5ヶ月の幼児の反応の同じ文脈独立に移動することを発見した。

A GA account of perceptual compensation for coarticulation would rely on interactions between stimulus attributes in the auditory system or perceptual learning based on correlated features in the input.
調音結合に対する認知的な償いのGAの説明は、調音システムの刺激特質の間でまた、入力における相互に関係のある特徴に基づく知覚的な学習に頼るであろう。

In support of a general auditory basis for these context effects, Lotto et al.(1997) demonstrated context-dependent responses to CVs in birds.
これらの文脈効果に対する一般的な音響の基礎を指示して、ロットらは鳥におけるCVに反応する文脈の独立を論証した。

Japanese quail were trained to peck a key when presented /da/ or /ga/.
日本のウズラは/da/や/ga/を提示した時、鍵をくちばしでつつくよう訓練された。

When ambiguous CV stimuli were presented following /al/ or /ar/, birds' responses shifted in the same manner as for humans.
多義のCVの刺激が次の/al/や/ar/を提示した時、鳥の反応は、人間のそれと同じような方法をとった。

The extension of phonetic context effects to Japanese quail casts doubt on the necessity of specialized perceptual mechanisms.
日本のウズラへの音素的な文脈効果の伸張は、特別化された認知的なシステムの必要性へ疑いをかけた。

Lotto et al. (1997) suggested that the shifts in birds' responses were not due to the factoring of the signal into gestures but to general auditory interactions between the spectral components of the target and context.
ロットら(1997年)は、鳥の反応の移動は、手振りの信号の分解のせいにするのではなく、対象と文脈のスペクトルの成分の間のせいであると示唆した。

In particular, they proposed that the context effects are a result of spectral contrast.
特に、彼らは、文脈効果は、スペクトルの対照の結果であることを提案した。

A redescription of the bird results in terms of acoustic components would be:
音響的構成要素に関する鳥の結果の再記述は次のようなものである。

Following a context with high-frequency F3 offset (/al/), more low-frequency F3 onset responses (/ga/) are obtained.
高い周波数の第3フォルマントの埋め合わせの(/al/)を伴う文脈にしたがって、より低い周波数の第3フォルマントの頭文字の反応(/ga/)が得られた。

Equivalently, following a context with low-frequency F3 offset (/ar/), more high-frequency F3 onset responses (/da/) are obtained.
同様に高い周波数の第3フォルマントの埋め合わせである(/ar/)に続いて、より高い周波数である第3フォルマントの頭文字の反応(/da/)が得られた。

It should be noted that the proposed auditory contrast is between spectral patterns of higher versus lower energy in particular frequency regions, as opposed to changes in representations of frequency per se.
提示された音響の対照は特異な周波数の部位において低いエネルギーに対するより高いスペクトルのパタンの間にあるべきであると注目すべきである。それは、本来周波数の表現における変化に対抗するものである。

Evidence for spectral contrast has also been obtained with humans.
特別な対比に対する証拠は、人間に対しても得られている。

Lotto & Kluender (1998) presented listeners with members of a /da/-/ga/ series preceded by nonspeech sounds that mimicked some of the important spectral content of the syllables /al/ and /ar/.
ロットとクルンダー(1998年)は/al/と/ar/の音節の重要なスペクトルの中身のいくつかを真似た非音声によって先導された/da/-/ga/の連続の一部器官を伴って聞き手に提示した。

The contexts were either tone glides modeling the offset transitions of F3 or steady-state tones set at F3 offset frequency.
その文脈は、第3フォルマントの埋め合わせをする遷移をモデルとする舌の渡り音または、第3フォルマントの埋め合わせをする周波数でセットされる本当の状態の舌のいずれかであった。

Despite a lack of articulatory or phonemic content, these contexts affected the identification of target CVs.
調音または、音素の文脈の欠乏にもかかわらず、これらの文脈は、目的とするCVの同定に影響を及ぼした。

Following high-frequency tones (based on /al/), more /ga/ identifications were obtained.
高い周波数の音(/al/に基づく)にしたがって、もっと多くの/ga/の同定が獲得された。

The interaction of speech and nonspeech sounds runs counter to expectations of a modular approach to perception such as MT.
音声と非音声の交互作用はMTのように知覚へのモジュラー接近の期待へ計算されていく。

Similar nonspeech context effects have been demonstrated for conditions that mimic consonant contexts with vowel targets (Holt et al. 2000) and vowel contexts with consonant targets (Holt 1999).
同じような非音声の文脈の効果は、母音対象の子音文脈の条件(ホルトら2000年)と子音対照の母音文脈の条件(ホルト1999年)に対して論証されてきている。

Instead of proposing a special mechanism to handle the complexities of coarticulation, it may be that a general perceptual function allows (and even encourages) humans to coarticulate phonemes.
調音結合の複雑さを処理するための特別なメカニズムを提案する代わりに、一般的な知覚機能は(そして励ましでさえも)調音結合の音素を人間に許すかもしれない。

The spectral account of phonetic context effects has been challenged by recent results of Fowler et al. (2000).
音素の文脈効果のスペクトルの説明は、フォウラーら(2000年)の最近の結果によって挑戦が始められている。

They presented listeners with a /da/-/ga/ series preceded by a syllable that was perceptually ambiguous between /al/ and /ar/.
彼らは、聞き手に/al/と/ar/の間の知覚的にあいまいな音節によって生成される/da/-/ga/の連続を提示した。

The identity of this context was disambiguated by a synchronized video of a speaker producing /al da/ or /ar da/.
この文脈の同一化は、/al da/や/ar da/を生成する話者の同調するビデオによってあいまいさをなくしていた。

The resulting identification of the target CV was a function of the visual input.
目的とするCVの結論的な同定は視覚的入力の機能であった。

Visual /al/ productions led to more /ga/ responses.
視覚的な/al/の生成は、より多くの/ga/の反応に導かれる。

This result is consistent with gestural theories such as MT or DRT.
結果は、MTやDRTのように身振りの理論を伴って首尾一貫している。

The visual input provides information about the gestures involved in the context syllables and leads to appropriate compensation for coarticulation in perceiving the target.
視覚的な入力は文脈音節に含まれる身振りについての情報を与え、対象を知覚する中で調音結合に対する埋め合わせを当てることを導く。

The results are inconsistent with an account that relies strictly on spectral because there is no change in the acoustic makeup of the context in the two conditions.
結果は、スペクトラム上で厳しく信頼する説明を持って矛盾をする。なぜなら二つの条件の中の文脈の音響的組み立ての変化はないからである。

It should be noted that from the perspective of GA, it is quite reasonable to assume that humans learn correlations between visual and auditory input and that their perceptions are a result of a combination of these informational sources (Massaro 1987).
GAの考え方から人間は、視覚的なものと音響的な入力の間の相互関係を学ぶということを事実だとすることは全く道理をわきえており、かれらの知覚は情報を提供する源の結合の結果であるということに注目した。

That is, a generalist account does not require that all context effects be explained solely by spectral contrast or any purely auditory mechanism.
このことはつまり、万能家の説明は、全ての文脈効果はスペクトルの対照または、純粋な音響メカニズムによって単独で説明されるなければならないことを必要としているわけではない。

Despite the fact that visually moderated context effects would be consistent with all of the major theories of speech perception, the findings of Fowler et al. (2000) have recently been brought into question by new results.

視覚的に適度の文脈効果は、音声知覚の大多数の理論の全てをもってむずんしないだろうという事実にもかかわらず、フォウラーら(2000年)の発見は、新しい結果によって最近質問をもたらされている。

Stephens & Holt (2002) presented participants the ambiguous context and target CV sounds with aligned video /al/ and /ar/ and a blank screen during the CV.
ステファンとホルト(2002年)は、参加者に/al/と/ar/を整列したビデオであいまいな文脈と対象とするCVの音そして、CVの間の黒いスクリーンを提示した。

They failed to find a shift in CV identification as a function of context video.
かれらは、文脈ビデオの機能としてCV同定での移動を発見することに失敗した。

This raises the possibility that the effect reported by Fowler et al. was due to visual information associated with the target syllable rather than to the video aligned with the context.
このことは、フォウラーらによって報告された効果は、対象音節に関係した視覚的情報のせいにされることを提唱した。

Although the videotaped speaker produced /da/ in both conditions, there were differences in the CV portion of the video for /al/ and /ar/ precursors.
ビデオテープの話者が双方の条件で/da/を生成したにもかかわらず、/al/と/ar/の前兆に対するビデオのCVの部分に違いがあった。

To examine the effect of these differences, Stephens & Holt (2002) presented the audio and video CV portions of the Fowler et al. stimuli with no auditory or visual context.
これらの違いの効果を検証するために、ステファンとホルト(2002年)は、音響でも視覚でもない文脈をフォラーらの刺激の音声とビデオのCVの一部分を示した。

The resulting identification functions resembled those originally obtained by Fowler et al. with boundary shifts as a function of whether the visual /da/ came from /al da/ or /ar da/.
結論付けた同定の機能は視覚的な/da/は/al da/によるものなのか/ar da/によるものなのかの機能として境界線を動きながらフォウラーらによって独自に手に入れることに似ている。

Thus, the identification shifts appear to be due to auditory and visual interactions during the target syllable and not due to visual moderation of the perceived context.
このようにして同定である移動は、対象とする音節の間の音響的視覚的相互作用によるものであるのであって、近くされた文脈の視覚的な節度によるものではないことを現した。

These synchronized auditory-visual interactions are well known in speech perception as demonstrated by the McGurk effect (McGurk & McDonald 1976).
これらの同時性のある音響−視覚的な交互作用は、マクダーク効果(マクダークとマクドナルド1976年)として論証されているように音声知覚において良く知られている。

Whereas the results of Fowler et al. (2000) do not clearly indicate the existence of visually moderated context effects, there have been several demonstrations of lexically moderated context effects (Elman & McClelland 1988, Magnuson et al. 2003, Samuel & Pitt 2003).
フォウラーら(2000年)が視覚的に適当な文脈効果の存在をはっきりと示さないのに反して、辞書的に和らげた文脈効果のいくつかの論証がある。(エルマンとマククレランド1988年、マグナソンら2003年、サムエルとピット2003年)

For example, Elman & McClelland (1988) presented context words that ended in an ambiguous fricative consonant.
たとえば、エルマンとマククレランド(1988年)は、あいまいな摩擦音の子音で終わる文脈たんとを提示した。

This consonant was disambiguated by lexical identity, being perceived as "s" in "copious_" and as "sh" in "Engli_."
この子音は、 "copious_"における"s" や"Engli_"における"sh" になるように辞書的に同一されることによってあいまいさが避けられた。

Despite the lack of acoustic change in this final consonant, identification of succeeding target consonants was shifted as a function of lexical context, from a /d/ following "English" to a /g/ following "copious."
最後の子音の音響的変化の欠乏にもかかわらず、成功する対象の子音の同定は、辞書的なっ文脈の機能として移動された。Englishに続く/d/からcopiousに続く/g/まで。

This result is difficult to reconcile with current accounts of phonetic context effects because the acoustic (and presumed corresponding gestural) characteristics of the precursor context stimuli are nearly identical across conditions.
この結果は、音素の文脈効果の正しい説明をもって若いさせるのは難しい、なぜなら音響的(そして推定された一致する身振り)な前兆の文脈刺激の性格は、条件のいたるところにほとんど全く同じであるからである。

What remains unresolved is the type of representation on which lexicality asserts its effects.
解決しないで残るものは、語彙項目がその効果を強く断言する表現のタイプである。

Cognitive models typically propose that lexical effects influence phonemic representations, but they could just as well be influencing gestural or auditory representations (or both).
認知モデルは典型的に語彙効果は音素の表現に影響を与えることを提唱した。しかし、それらは、身振り的にまたは、音響表現(もしくはその両方)に影響を与ええられることもできるであろう。

The problem with phoneme representations here is that context effects have been demonstrated for listeners without the requisite linguistic representations (birds, infants, and Japanese listeners with /l/ and /r/ contexts).
ここでいう音素表現の問題は、文脈効果が必要な言語表現なして聞き手に対して論証されていくということである。(/l/や/r/を伴う鳥や幼児や日本人の聞き手のように)

To fully account for all the results, future cognitive models of speech will need to incorporate richer auditory and/or gestural representations.
これら全ての結果を全て説明するために、音声の認知モデルの図は、音響的また身振り的な表現でより豊富に合併する必要があるだろう。

So far, we have presented empirical and theoretical work concerning topics such as categorical perception and context effects that are relevant to the perception of the sounds of any language.
今まで見てきたように、我々はどの言語における音の知覚に関連のあるカテゴリー知覚と文脈効果のように関係のある経験的なそして理論的な作業を提示してきた。

However, one of the most important issues in speech perception is how listeners come to perceive sounds in a manner that is particular to their native language.
しかしながら、音声知覚における一番重要な論点の一つは、どのように聞き手が母国語に特有の様式の音を知覚するようになるかということである。

In order to communicate proficiently, a listener must discriminate acoustic variance in the speech signal that is linguistically relevant and to generalize across variance that is irrelevant.
意思疎通を熟達するために、言語的に適切な音声信号の音響的な分散について区別しなければならないし、聞き手は不適当な分散を通って概括的に述べることである。

Of course, what counts as relevant and irrelevant depends on the phoneme inventory of the specific language.
もちろん、妥当で何が妥当でないか勘定にいれるものは、スペクトルの言語の音声目録に頼っている。

Before six months of age, infants have a well-documented ability to discriminate many (possibly most) of the sounds that are used contrastively in languages (e.g., Eilers 1977, Eimas 1974, Eimas et al. 1971, Miller & Eimas 1983).
6歳前において、幼児は、言語において対照的に使われる音の多く(可能であれば一番多く)を上手に文書化する能力を持っている。(例えばエイラーズ1977年、エイムズ1974年、エイムズら1971年、ミラーとエイムズ1983年)

This includes the ability to tell apart sounds that are not phonemically distinctive in the infant's language environment (Best et al. 1988, Werker et al. 1981).
このことは、幼児の言語環境において音素的に特色のある音を離れて語る能力を含んでいる。(ベストら1988年、ワーカーら1981年)

Before the end of the first year of life, infants start to become perceptually "tuned" to their native language.
人生の最初の一年の終わり前に、幼児は、母国語に知覚的に同調するようになることを始める。

That is, they respond to speech sounds in a language-specific manner; discriminating acoustic differences between phoneme categories of their language but no longer distinguishing sounds within those categories (Pegg & Werker 1997, Werker & Tees 1984).
このことは、彼らが言語スペクトラムの方法で音声に反応しているのであり、かれらの言語の音素カテゴリーの間で音響的な違いを区別しながら、しかしもはやカテゴリー内の音を区別しているのである。(ペッグとワーカー1997年、ワーカーとテス1984年)

This change occurs before the development of a substantial lexicon.
この変化は、実態のある辞書の発達の前に起こっている。

In accord with MT, it has been suggested that these early speech perception abilities are indicative of "finely tuned linguistically relevant perceptual abilities" (Miller & Eimas 1983, p. 135) or even an "innately given, universal set of phonetic categories" (Eimas 1991, p.111).
MTに一致して、これらの早期の音声知覚の能力は、「立派な同調した言語的妥当な知覚能力」を示すものであり、もしくは、「生まれながらに与えられた音素カテゴリーの一般的なセット」でさえある示されてきた。(ミラーとエイムズ1983年135ページ)

These proposals are analogous to the concept of a language acquisition device (LAD) offered by Chomsky (1965) for acquisition of syntax.
これらの提案は、統語論の獲得に対してチョムスキー(1965年)によって勧められた言語習得装置(LAD)の概念に類似している。

Presumably, as with LAD, development would consist of retaining those phoneme contrasts that are used in the native language environment and discarding those that are not.
思うに、LADでそうであるように発達は、母国語環境とそうでないそれらを捨てることで使われこれらの対象を忘れないでいることから成り立っている。

Most recent proposals on speech acquisition have tended to focus on the role of general perceptual learning rather than on innate knowledge and specialized perceptual mechanisms.
音声取得における最も最近の提案は、内的な知識と特別な認知メカニズムよりも一般的な認知的学習の役割に焦点化する傾向がある。

It is hypothesized that infants acquire phoneme categories through the use of distributional properties of sounds in the language environment along with correlations between attributes of those sounds.
幼児は音の特質の間の相互関係にそって言語環境の音の区分上の特性の使い方を通して音素カテゴリーを得るという仮説である。

This does not require specialized mechanisms, although speech may be a particularly salient signal for infants, and learning processes may be biased to pick up just the kind of information that is important for speech categories (Jusczyk 1993, 1997).
このことは特殊化したメカニズムを必要としない。とはいえ、音声は幼児にとって特に静かな信号であるかもしれない。そして、過程を学習することは、音声のカテゴリー化に対して重要である。ある種の情報を拾い上げることに偏らせるかもしれない。

From the perspective of GA, the initial discriminative abilities of infants are a result of their well-developed auditory system, which provides sufficient temporal and frequency resolution (Werner & Bargones 1992).
GAの知覚から幼児の最初の識別力の能力は、よく発達した音響システムの結果であり、それは、十分な時間的なそして周波数の分析を提供する。

In addition, it seems reasonable to assume that languages tend to use contrasts that are readily distinguishable by language learners.
さらに加えると、言語は言語学習によって快く区別される対象を使う傾向があるということが事実であるとするのは理論的のように見える。

Kuhl (1993) has proposed that much of the initial auditory space of the human infant (and other mammals) is segregated by natural boundaries that underlie many of the speech discrimination results.
クール(1993年)は人間の幼児(それと他の哺乳動物)の最初の音響空間の多くは、音声弁別の結果の多くの基礎となっている自然な境界によって分離されているということを提案した。

Exposure to regularities within a natural language is proposed to lead to a reorganization of perception in terms of phoneme categories or equivalence classes.
自然言語内の規則正さにさらすことは音素カテゴリーまたは同等のクラスの見地から知覚の再組織へ導かれることを提案される。

The information for these categories is present in the statistical properties of the input distributions.
これらのカテゴリーの情報は、入力分布の統計上の特質で現される。

For many theorists, these categories provide mappings from acoustics to linguistic elements such as phonemes (e.g., Jusczyk 1993, 1997; Kluender et al. 1998; Kuhl 1993; Lotto 2000).
たくさんの理論家にとって、これらのカテゴリーは音素のように音響学から言語的要素への領域化を提供した。(例えばジャスジック1993年、ロット2000年)

From a DRT perspective, Best (1993, 1995) has offered the Perceptual Assimilation Model (PAM), according to which the initial discriminative abilities of infants are due to the direct recovery of the individual simple articulations that produce the sounds.
DRTの考え方によって、ベスト(199年、1995年)は認知的同化モデル(PAM)を勧めた。それに従うと、最初の識別力のアル幼児の能力は、音を生成する独自のシンプルなはっきりとした発音の直接的な回復のせいである。

With exposure to a language, infants begin to group coordinated gestures that are related to the phonemes of the language into equivalence classes.
言語にさらされることによって、幼児は同等のクラスへ言語の音素に関係する同等の手振りをグループ化することを始める。

Despite general agreement that perceptual learning depends on the distributional properties of stimuli, few attempts have been made to explore the actual mechanisms for auditory categorization of complex stimuli such as speech.
認知的な学習刺激の分布の特質によるという一般的な賛成にもかかわらず、ほんの少しの人は、音声のような複雑な刺激の音響カテゴリーに対して事実上のメカニズムを探索するだろう。

One exception is a proposal by Kuhl (1991, 1993, 2000) that experience with speech sounds leads to the creation of category prototypes or high-density representations of exemplars that act as "perceptual magnets" that warp the perceptual space.
一つの例外は、音声言語の経験は、カテゴリー原型の創造または、知覚空間をゆがめる「知覚磁石」として作用する手本の高い感度の表現に導かれるということである。

However, the initial findings and subsequent predictions of the magnet model have not been supported (Frieda et al. 1999, Lively & Pisoni 1997, Lotto et al. 1998, Sussman & Lauckner-Morano 1995).
しかしながら、磁石モデルの最初の発見と続いて起こる予言は支えられていない(フリーダら1999年、ライブリーとピソニ1997年、ロットら1998年、ササッサンとラークナーモラノ1995年)

One difficulty of studying speech category learning in infants is a lack of control over the quality and quantity of language experience.
幼児の音声カテゴリー学習を研究する上で難しいことの一つは、言語経験の質や量を支配しているものの不足である。

In fact, there exists little information about typical speech input distributions for infants.
実は、幼児に対する典型的な音声入力分布についての情報がほとんど存在しないのである。

In order to study general learning processes with known input distributions, Kluender et al. (1998) trained birds (starlings) to identify variants of the vowel in "heed" versus the vowel in "hid."
よく知られた入力分布による一般的な学習過程を研究するために、クルンダーら(1998年)は、"hid"の母音に対して"heed"の母音の分布を見分けるために、鳥(ホシムクドリ)を飼育した。

The birds readily learned to peck a button when they heard one vowel category and to refrain for the complementary vowel category, and their responses generalized to novel variants of the vowels.
鳥達は、すぐに一つの母音カテゴリーを聞いたときボタンをつつくことを学んだそして、その反対の母音カテゴリーに対しては避けた。そして、彼らの反応は、母音の新しい変形を一般化した。

Remarkably, the birds' peck rates were highest for those variants that human adult listeners judged as the best members of the vowel category.
注目すべきことに、鳥のつつく割合は、母音カテゴリーの一番の要素のように大人の人間の聞き手が判断した変形に対して一番高かった。

The correlation between bird responses and human "goodness" judgments was high across categories (r = 0.99) and within categories (average r = 0.71).
鳥の反応と人間の「徳」のある判断の間の相関は、高く横切ったカテゴリーで(r=0.89)カテゴリー内では(平均してr=0.71)であった。

The bird and human data revealed two salient patterns. +
鳥と人間のデータは、2つの顕著なパタンを明らかにした。

The first was a higher rate of responding (or higher goodness ratings) for stimuli located relatively far from the category boundary.
第1にカテゴリの境界から比較的離れて位置した刺激に対して反応の高い割合(または、より高い「徳」のある評価)があったことである。

The second was an increase in response near the centroid of the stimulus distribution used for training.
第2に訓練に対して用いられる刺激分布の物質中心に近い反応の増加である。

This was the area of highest stimulus density during training, and the response pattern resembles a classic prototype effect (e.g., Rosch 1978).
このことは、訓練の間一番高い刺激の感度の区域であり、反応パタンは、古典的な原型の効果である。(例えば、ロッシャ1978年)

This pattern indicates that the birds picked up information about the structure of the input distribution even though it was not necessary to perform the task.
このパタンは、鳥が仕事を実行するには十分でないけれども、入力分布の構造についての情報を得たということを示すものである。

(Use of a linear boundary between the two categories would be sufficient for perfect performance.)
(2つのカテゴリーの間における直線的な境界の理法は、完全な実行に対して十分である。)

Thus, perceptual systems may be quite sensitive to input distributions of experienced auditory stimuli, and this information may affect later categorization.
このようにして、知覚システムは経験された音響刺激の入力分布に非常に敏感であるかもしれない。そして、この情報は後のカテゴリー化に影響を及ぼすかもしれない。

In support of this conclusion, Maye et al. (2002) reported that the shape of previously experienced distributions could alter responses of human infants to speech sounds.
この結末を補助するものとして、メイーら(2002年)は前もって経験された分布の形成が音声の人間の幼児の反応を帰るという報告をしている。

They presented infants with either a bimodal distribution (resembling two categories) or unimodal distribution (resembling a single category) of VOT stimuli.
かれらは、VOTの刺激の最頻値が2つある分布(2つのカテゴリーに似ている)もしくは、一つの頂点を持つ分布(1つのカテゴリーに似ている)幼児を提出した。

In a subsequent discrimination task, infants with bimodal experience discriminated endpoints of the series (as if they belonged to separate categories) whereas infants with unimodal experience showed poorer discrimination.
弁別作業に続いて、一つの頂点になる経験のある幼児は、連続の最終段階を区別する。(あたかもカテゴリーを分けることに属しているように)、ところが、2つの頂点になる経験を持つ幼児は、より弱い弁別を示した。

Taken together with the animal work and experiments on the categorization of nonspeech sounds (Guenther et al. 1999, Lotto 2000), these results are part of a growing literature on the ability of listeners to extract information about the statistics of input distributions.
動物の作業と非音声のカテゴリーの要素(グンサーら1999年、ロット2000年)を一緒に持って、これらの結果は、入力分布の統計についての情報を抽出するために、学習者の能力の成長する成長する文献の一部である。

These studies likely will play a substantial role in our understanding of phoneme acquisition.
これらの研究はまさに、音素の獲得の理解において実態のアル役割を演じるであるだろう。

In summary, from the perspective of GA, the data on infant speech perception can be explained by an interaction between the operating characteristics of the auditory system and processes of perceptual learning.
概略すると、GAの知覚から、幼児の音声知覚のデータは音響システムの性質の操作と知覚学習の過程の間においての相互作用によって説明されることができる。

This audition-learning interaction is exemplified in a recent study by Holt et al. (2003).
この聴力と学習の相互作用は、ホルトら(2003年)によって最近の研究がよい例となっている。

They took advantage of the natural boundaries that have been demonstrated for temporal processing to examine the formation of nonspeech categories.
かれらは非音声の情報を検証するために、時間的な過程に対して論証される自然な境界を利用した。

Participants were presented TOT stimuli similar to those used by Pisoni (1977; see Figure 2) and asked to label them as belonging to the experimenter-defined categories A or B, with the correct answer indicated by feedback.
参加者は、ピソニ(1977年 図2を見よ)によって用いられたこれらと同様のTOT刺激を提示し、フィードバックによって閉めあされた正しい答えをもってカテゴリーAまたはBの実験者の定義に属して名づけるよう求められた。

For half the participants, the category distributions were separated by the natural TOT boundary of +20 ms.
半分の参加者に対して、カテゴリー分布は、+20ミリ秒の自然なTOTの境界によって分けられている。

For the other participants, the distributions were separated by a TOT boundary of +40 ms.
他の参加者に対しては、その分布は、+40ミリ秒のTOT境界によって分離されていた。

For this condition, the natural boundary fell within the A category.
この条件に対して、自然な境界は、Aカテゴリーに落ち込んでいた。

Two findings were noteworthy.
2つの発見が注目すべきであった。

The first was that participants whose experimenter-defined boundary was consistent with the natural boundary learned the categories much more readily.
第1に実験定義の境界が自然な境界と共に存在する参加者はもっと早くカテゴリーを学んだ。

They required fewer than half as many trials to reach a criterion of 90% correct than subjects with experimenter-defined boundaries that were inconsistent with the natural boundary.
彼らは、自然な境界の矛盾の多い実験者定義の境界の主題よりも90%が正しい基準に到着するたくさんの挑戦よりも少なく要求する。

That is, because the auditory system provided an initial parsing of the distributions, listeners had little difficulty learning the proper labels for each stimulus.
このことは、音響システムが分布の初期説明を提供したので、聞き手は、それぞれの刺激に適切に名づけることにあまり難しさを感じないのである。

Similarly, separating those categories by a natural boundary may facilitate the task of learning the voice categories of a language.
同じように、自然境界によってこれらのかエゴリーが分離されていることは、言語の音声カテゴリーを学ぶ作業を容易にするかもしれない。

The fact that languages tend to use these natural boundaries may be due to an advantage of learnability.
言語がこれらの自然境界を使う傾向があるという事実は、学習能力の有利に負うかもしれない。

The second finding of Holt et al. (2003) was that participants assigned to the unnatural boundary condition did eventually learn to categorize the stimuli with high accuracy (greater than 90%).

ホルトら(2003年)の第2の発見は、不自然な境界条件に割り当てられた参加者が、やがては高い正確さを伴って刺激をカテゴリー化することを学んだのである。

That is, the natural temporal order boundary is not essential to the categorization of TOT stimuli and, by extension, VOT stimuli. Learning processes are flexible enough to overcome some natural auditory biases.
このことは、自然な時間的な命令境界は、拡張によるVOT刺激、TOT刺激のカテゴリー化に必要なものではない。

The results of learning can be seen in the discrimination responses of adult speakers of Spanish, who show a much larger peak at the Spanish voice boundary than at the English voice boundary (Williams 1977).
学習の結果は、スペイン語の大人の話しての弁別の反応に見られることができる。その人は、英語の音声境界よりもスペイン語の音声境界により大きな頂点を示したのである。

The results demonstrate the potential for perceptual learning studies to explain patterns of speech category acquisition.
その結果は、音声カテゴリー習得のパタンを説明するための認知学習研究の可能性を物語っている。

Both MT and DRT assume that there exists a very close relationship between speech production and perception:
MTもDRTも、音声生成と知覚の間にはとても近い関係が存在すると見ていた。

Talkers produce gestures and listeners perceive them (or, in the case of MT, they perceive the intended gestures).
話しては手振りを生成し、聞き手は、それらを知覚する。(つまり、MTの場合、彼らは意図的な手振りを近くするのである)

Accordingly, regularities of speech production (e.g., context dependencies in the realization of successive phonemes) should be highly correlated with listeners' perceptual judgments.
それに応じて音声生成の規則正さ(例えば、連続する音素の現実化の文脈保存など)は、聞き手の知覚的な判断で高く関連があるべきである。

A wealth of data assures us that such a correlation exists, and on this point there is no serious disagreement among theorists (Diehl & Kluender 1987, Fowler 1986, Liberman 1996).
豊富なデータは私たちに相互関係が存在することを保障した。そしてこの点において、理論家達の間に重大な食い違いはなかった。(ディールとクルーダ1987年、フォウラー1986年、ライブマン1996年)

However, GA differs from MT and DRT on how the correlation is to be explained.
しかしながら、GAはどのように関連が説明されるかということでMTやDRTとは異なっていた。

GA offers two general accounts of the correlation between speech production and perception, which are, simply stated:
GAは音声生成と知覚の間の関連の2つの一般的な説明を進めた。それは、単に定まっている。

Production follows perception, and perception follows production.
生成は、知覚に続き、知覚は生成に続く。

The first of these is meant to subsume cases in which the need for auditory distinctiveness of phonemes shapes production.
2つのうち最初は、音素の音響的識別が生成を形作ることに必要な場合包含することを意味する。

For example, as described earlier, languages tend to locate +voice and voice phonemes so that they are separated by natural auditory boundaries along the VOT dimension.
例えば、前に述べたように、言語は、+音声と音声音素に位置する傾向があり、それゆえそれらは、VOT配列に素って自然音響境界によって分離される。

More generally, the sound systems of languages tend to satisfy a principle of dispersion, whereby interphoneme distances are maximized within the available phonetic space to promote intelligibility of utterances even under unfavorable listening conditions.
もっと一般的に言うならば、言語の音のシステムは、分布の原則を満足させる傾向がある。それによって内音素の距離は、好意のない聞き手の条件のもとでさえ、発話のわかりよいことを増進させる便利な音素スペースの中で最大限度に達するのである。

In simulation experiments, the dispersion principle has been shown to predict the structure of common vowel inventories quite accurately, especially when realistic auditory models are used to define a measure of auditory distance (Diehl et al. 2003, Liljencrants & Lindblom 1972).
擬似実験を通して、分散原則は、全く正確に共通の母音目録の構造を予言することを示されている。

How is the dispersion principle implemented by talkers?
話し手によって、分散原則がどのように与えられるのであろうか。

A general answer to this question is provided by the auditory enhancement hypothesis (Diehl & Kluender 1989a,b; Diehl et al. 2001; Kingston & Diehl 1994, 1995), which states that the gestural correlates of individual phonemes are selected to yield mutually enhancing auditory effects.
この質問に対する一般的な回答は、音響の増大仮説(ディールトクルンダー1989年あaとb、ディールら2001年、キングストンとディール1994年、1995年)によって提示されている。それは、個々の音素の身振りの関係は音響効果を互いに高めることをもたらすために選択される。

Consider, for example, the vowel /u/, which occurs in most of the world's languages (Maddieson 1984).
たとえば、母音の/u/は、世界中の言語で最も多く発生するものであることを考慮しなさい。(マジソン1984年)

The acoustic property that distinguishes /u/ from all other vowels is a low-frequency F2.
他の全ての母音と/u/を区別する音響的特質は、低い周波数の第2フォルマントである。

When talkers are required to speak clearly (for example, in the presence of background noise), they typically produce /u/ by retracting and raising the tongue body, enlarging the pharynx by moving the tongue root forward, raising the velum (and thus blocking airflow from the mouth through the nasal cavities), lowering the larynx, protruding the lips, and constricting the lip orifice.
話し手がはっきりと発音するように依頼された時(例えば、背景の音の存在の中で)、彼らは典型的に反作用によって/u/を生成し、舌の本体を上げる。舌の根を前にうごかすことによって咽頭を広げ、軟口蓋を上げ、(そしてこのように鼻の腔を通して口から気流をふさぎながら)、喉頭を低くして、唇を突き出し、そして、唇の開口部を構成しながら。

Every one of these gestures independently contributes to lowering the frequency of F2; together they create a maximally distinctive /u/, that is, one that is acoustically (and hence auditorily) most distant from other vowels (Diehl & Kluender 1989a,b).
これらの動きの全ての人は、低い第2フォルマントの周波数に独立的に寄与している。一緒に彼らは最大限の区別を生産する。つまり、他の母音と音響的に(それゆえ音響的に)最も遠いのである。(ディールとクルンダー1989年aとb)

The dispersion principle and the auditory enhancement hypothesis are the main content of the claim that production follows perception.
分布原則と音響高揚の仮説は、知覚に続く生成を批評する主な内容である。

The other claim of GA is that perception follows production.
GAのほかの批評は、知覚は生成に従うということである。

According to GA, listeners do not recover gestures, but they do perceive the acoustic consequences of gestures.
GAによると、聞き手は手振りを取り戻すことはしないが、駆られは身振りの音響的連続を知覚する。

Any regularities of speech production (e.g., context dependencies) will be reflected in the acoustic signal, and, through general mechanisms of perceptual learning, listeners come to make use of the acoustic correlates of these production regularities in judging the phonemic content of speech signals.
どんな音声生成の規則正さ(例えば、文脈依頼性)も降格信号に反映されるであろう。そして、一般的な知覚学習のメカニズムにもかかわらず、聞き手は、音声信号の音素文脈を判断する生成の規則正さの音響的関連を作るようになる。

An implication of this discussion is that, by itself, the high correlation between speech production and perception is uninformative with respect to the debate between MT, DRT, and GA.
この論議の一つの含みは、それ自体音声生成と知覚の間の高い関連性は、MT、DRTやGAの中で論議にかかわらず情報がないのである。、

All three predict that such a correlation must exist.
そのような関連を予言する3つ全てが存在する。

Distinguishing them empirically requires other kinds of data including (but not restricted to) speech and nonspeech comparisons or human and animal comparisons.
経験的にそれらを識別することは、音声、非音声の比較を含むほかのデータの種類は、人や動物比較を要求する。

To illustrate this point, we consider the McGurk effect (McGurk & MacDonald 1976), where visual speechreading information may actually override inconsistent auditory information in determining the identification of a phoneme.
この点を図示するために、私たちは、マクダーク効果(マクダークとマクドナルド1976年)を考えてみる。そこでは、音声読書情報は、音素の同定化を決める矛盾の多い音響情報を実際に覆すかもしれない。

In normal speech communication, visual and auditory cues are consistent, and listeners use both in making phoneme judgments.
普通の音声コミュニケーションにおいて、視覚的音響的な手がかりは、存在し、聞きてゃ音素判断をするときに両方を用いるのである。

Both motor theorists (Liberman & Mattingly 1985) and direct realists (Fowler 1986, 1996) have claimed that the McGurk effect and, more generally, the use of auditory and visual information in speech perception, support a gestural account of perception.
どちらの運動理論(ライブマンとマティングリ1985年))と長句説的な現実主義者(フォウラー1986年、1996年)はマクガーク効果ともっと一般的に言えば、音響とs各の音声知覚における情報は、知覚の一般的な説明を補助すると批評した。

As Fowler (1996) puts it, "[L]isteners perceive gestures, and some gestures are specified optically as well as acoustically" (p. 1733).
ふぁるラーが表現したように。聞き手は手振りを知覚し、いくつかの手振りは、音響上と同じように光学上明示される。

However, from the perspective of GA both acoustic and visual cues map perceptually onto phonemes, and the link between these cues can be attributed to perceptual learning.
しかしながら、GAの考え方から、音響と視覚的な手がかりの両方が音素に知覚的な地図を作る。そして、これらの手がかりの間の連結は、認知的学習にありとすることができる。

It is worth noting that biologically plausible computational models have demonstrated unsupervised learning of cross-modal categories (e.g., de Sa & Ballard 1998).
生物的なもっともらしい計算結果のモデルがクロス形式上のカテゴリーの管理されない学習を論証した。

Thus, a GA account appears to be no less compatible with results such as the McGurk effect than a gestural account.
このようにしてGAの説明は、一般的な説明よりもマクガルク効果のような結果を持って同様になるよう現れる。

Appealing to results outside the realm of normal speech perception may break this theoretical impasse.
結果をひきつけるように、一般的な音声知覚の領域の外は、この理論的な行き詰まりを打破するかもしれない。

Diehl & Kluender (1989a) noted that a GA account explains not only the integration of auditory and visual information for phonemes but other forms of cue integration as well.
ディールとクルンダー(1989年a)はGAの説明が音素に対して音響的、視覚的な結合だけではなく、他の結合手がかりも同様に説明したということに注目した。

For example, when certain acoustic properties of speech are artificially transduced into vibrotactile patterns on the skin, perceivers can learn to use this information along with correlated auditory and visual cues to identify phonemes (see, e.g., Sparks et al. 1978).
例えば、ある音響的な音声の特質が肌の上の振動パタンに人工的に変換される時、知覚する人は、音素を同一化するための音響的視覚的手がかりと関連させてこの情報を使うことを学ぶことができる。

Because the vibrotactile patterns cannot meaningfully be said to specify gestures, neither MT nor DRT appear to be able to accommodate the result without invoking assumptions similar to those of GA.
振動パタンが手振りを明示されるために意味深く言われることはできないし、MTやDRTもGAのこれらに似た救いを求める事実だとすることなしに結果に便宜を図って現れることはない。

In a different attempt to distinguish between gestural and GA accounts of the McGurk effect, Fowler & Dekle (1991) asked listeners to identify a series of synthetic syllables ranging from /ba/ to /ga/ while concurrently viewing a printed version of either syllable.
一般的なものとマクガルク効果のGAの説明の間を区別する異なった試みにおいて、フォウラーとデルケ(1991年)は聞き手に/ba/と/ga/のいずれの音素の印刷された説明を同時に見る間それらから並べる統合的な音素の連続を同一化することを求めた。

The authors reasoned that literate perceivers have extensive experience seeing printed words and hearing the words spoken, and therefore if simple association learning is responsible for the McGurk effect, then an analogous result should be observed in their experiment.
著者は、読み書きのできる知覚する人は、印刷された単語を見ながら話された単語を聞きながら広範囲な経験を持っている。そしてそれゆえ、もし、単一の関係学習がマクガルク効果として責任があるのならば、その時は、類似した結果は、それぞれの実験において観察されるべきである。

In fact, the printed syllables had no effect on identification of the synthetic syllables, and Fowler & Dekle concluded that this result was incompatible with an associationist account of the McGurk effect.
実は、印刷された音節は、統合的な音節の同定の効果を持たない。そして、フォウラーとデクレはこの結果はマクダルク効果の連合主義者の説明をもって両立しがたいのである。

A problem with this conclusion is that GA does not view the process of perceptual learning as equivalent to simple associative learning per se.
この結末の問題点は、GAがそれ自体で単なる連合学習へ同等のように学習する知覚的過程を見ることにならない。

To learn the auditory, visual, or even vibrotactile correlates of a phoneme is to learn what kinds of stimulus properties serve as information (i.e., as perceptual cues) for that phoneme.
音素に関係のある音響、視覚、もしくは振動を学ぶということは、その音に対してどんな種類の刺激特性が情報(例えば、認知的手がかりのように)として役に立つかということである。

The relation between a perceptual cue and the object/event that is signaled by the cue is correctly referred to as an association, but it is a very specific kind of association.
知覚的手がかりとその手がかりによって合図される物体/出来事の間の関係は、連合として正しく言及されている。しかしそれは、特別な明確な種類の関係である。

It is quite unlike, for example, the links between semantic associates (e.g., doctor:nurse, dog:cat, and oak:maple), between objects and their names (dog: "dog"), or between phonemes and their orthographic representations (/b/:"B").
それらは全く似ていない。例えば、意味上の関係(医者と看護師、犬と猫、オークとかえでなど)や対象とその名前(犬:"dog")また、音素とそのつづりの正しい表現(/b/と"B")の関連のように。

Concerning the latter kind of association, no amount of experience reading aloud is likely to establish an informational relationship between letters and phonemes such that "B" signals that /b/ is now occurring.
関連の後者の種類に関係して、大きな声で読む経験の総計は、/b/が今起こっている"B"の信号のように文字と音素の間の情報関係を打ち立てるものではない。

In a different analog of the McGurk & MacDonald (1976) experiment, Fowler & Dekle (1991) had listeners identify synthetic /ba/-/ga/ stimuli while concurrently touching the mouth of a talker producing the syllables /ba/ or /ga/.
マクダルクとマクドナルド(1976年)の実験の異なった相似器官において、フォウラーとデクレ(1991年)は話者の口の同時に起こる接触が/ba/や/ga/の音節を生成する間/統合的なba/-/ga/の刺激を聞き手に確認させた。

No visual information about the talker was available to the participants.
話してについての視覚的な情報は、参加者が利用することはなかった。

As with the visual version of the McGurk & MacDonald experiment, this haptic version yielded reliable evidence of cross-modal effects on phoneme judgments.
マクダルクやマクドナルドの実験の視覚的な説明のように、この触覚に基づく説明は音素判断の横断的形式上の効果の信頼する証拠を生み出した。

According to Fowler & Dekle, these results support a gestural account of speech perception (with both optical and haptic information specifying the gestures), while ruling out a perceptual learning account on the grounds that participants would not have had previous experience perceiving speech haptically.
フォウラーとデクレによると、これらの結果は音声知覚の一般的な説明を補助する。(身振りを明示する視覚触覚の両方の情報をもって)その一方近くする人が持っていないであろう根拠に基づく知覚学習の説明の法則以外は、先行する触覚的な音声知覚の経験を持った。

Below we discuss reasons for denying the claim of DRT that humans use acoustic information to perceive gestures.
私たちは、人類が身振りを知覚するための音響情報を使うというDRTの批評を否定するためにその理由を討論するにさえふさわしくない。

However, no one would deny that at least some gestures (e.g., lip closing and opening) are visually accessible or that such visual information typically plays a useful role in speech perception.
しかしながら、誰も少なくてもくつかの手振りが視覚的に理解しやすいということやそのような視覚的情報が典型的に音声知覚の役に立つ役割を果たすということを否定できないだろう。

Nor is it surprising that humans can tell whether a talker is closing and opening the lips (as in the production of /ba/) merely by touching the talker's lips.
ましてや、人類が話し手が単に話し手の唇に触ることによって唇を閉じたり開けたり(/ba/の発音のように)するか語ることはない。

Haptic speech perception may be unusual, but humans have abundant haptic experience with shapes and surface contours in general, ensuring likely success for this special case.
振動の音声知覚は、通常ではないかもしれない。しかし、人間は、一般的に形における豊富な振動経験や一般的な表面的な輪郭を持っている。それは、この特別なケースを確実なものにするように。

GA would certainly not discount the use of gestural information to recognize phonemes in those cases where gestures are perceptually accessible.
GAは、手振りが知覚的に近づきやすいこれらのケースの音素を認める一般的情報の使い方を無視することができないだろう。

As mentioned earlier, GA is not a theory as such but rather a general framework within which particular theoretical claims are formulated and tested.
先に述べたように、GAはそのような理論ではなく、特徴ある理論的な批評が組み立てられ試験される一般的な骨組みである。

These claims may include competing explanations for the same phenomenon, as in the following example.
これらの批評は同じ減少に対して競争する説明を含んでいるかもしれない。次の例にあるように。

A well-known correlate of the voice distinction is variation in fundamental frequency (f0): vowels immediately following +voice consonants tend to have lower f0 values than vowels following voice consonants.
音声識別の良く知られた関連は、基礎周波数(第0フォルマント)にある。+声母音にすぐに続く母音は、声子音に続く母音よりもより低いF0の価値を持つ傾向がある。

Correspondingly, a lower f0 tends to shift the perceived voice boundary toward higher values of VOT (i.e., more stimuli are judged as +voice).
それに相当するものとして低いF0はVOTの高い価値に向かって知覚された声の境界に移動する傾向がある。

Diehl (1991, Diehl & Molis 1995) claimed that f0 is controlled by talkers as part of a strategy of auditory enhancement of the voice distinction:
ディール(1991年、ディールとモリス1995年)は、F0は音声方向の音響増大の方略の部分として話し手によって制御されるということを批評した。

Voicing during the consonant and a low f0 and F1 near the consonant all contribute to the low frequency periodicity that, by hypothesis, is a main distinctive acoustic correlate of +voice consonants.
子音とその近くの低いFOとF1の間を発音することは全て、低い周波数の周期に賊kする、そのことは仮説によると+音声子音の主な識別すべき音響の関連性である。

In this view, f0 affects voice perception for auditory reasons (e.g., integration of low frequency energy) and not because f0 is a learned cue for the voice distinction.
この考え方によるとF0音響的な理由に対する音声近くとして影響を及ぼす(例えば、低い周波数のエネルギーの統合のように)そしてそれは、F0は音声識別に対する学習された手がかりだからではないのである。

However, such a perceptual learning account is clearly compatible with GA.
しかしながら、そのような知覚的学習の説明は、GAと共に明らかに矛盾はない。

To test the two competing claims, Holt et al. (2001) trained Japanese quail to respond to one of three series of VOT stimuli: one in which VOT and f0 varied in the natural way (shorter VOT, lower f0), one in which the pattern was reversed (shorter VOT, higher f0), and one in which the relation between VOT and f0 was random.
2つのむずんすることがない批評を検証するために、ホルトら(2001年)は日本のウズラをVOT刺激の3つの連続の一つに反応するように訓練した。一つは、自然な方法で変えられるVOTとFOを含んでいる(より短いVOT、とより低いF0)、また一つは、パタンが逆のものを含んでいる(より短いVOT、高いF0)そして、VOTとF0の関係がランダムであるもの。

For birds trained in the random condition, there was no effect of f0 on responses to novel VOT stimuli, while for the other two groups, responses followed the learned pattern of stimulus covariation.
ランダム条件で訓練された鳥達は、新しいVOT刺激への反応にF0の効果は認められなかった。一方他の2条件では、刺激共変の学習されたパタンに従った。

These findings strongly support the perceptual learning account, and appear to rule out the auditory (low-frequency integration) account, of the influence of f0 on VOT perception.
これらの発見は、知覚学習説明を強くサポートし、音響(低い周波数の説明)説明以外をルールづけるため表れ、VOT知覚におけるF0の影響の説明をする。

In this concluding section, we describe what we think are the main challenges to each of the three main theoretical perspectives on speech perception.
この章を結末として、私達は、私達が考えることは、音声知覚における3つの主な理論的な考え方のそれぞれの主な挑戦であることを述べる。

Motor Theory
運動理論

We argue above that a high correlation between measures of speech production and perception is by itself uninformative theoretically because all major perspectives predict such a correlation.
私達は音声生成と知覚の間の測定の高い関連性が情報のない理論的なもの自体であることを超えて論じられる。なぜなら、全ての主要な考え方はそのような関連性を予言している。

Accordingly, the empirical case for MT must ultimately rest on demonstrations of patterns of performance that are specific to speech perception by humans.
それに応じて、MTに対する経験上の場合は、結局は、人間による音声知覚の明確な成績のパタンの論証に基づいているに違いない。

During the last four decades, motor theorists have described a variety of empirical phenomena that they believed satisfied the condition of speech- and/or human-specificity (Liberman 1996, Liberman et al. 1967, Liberman & Mattingly 1985).
最近の40年の間に運動理論家は、音声のまた、人間の特殊性の条件を満足させられることを信じた経験的な現象の分布を述べた。(ライブマン1996年、ライブマンら、1967年、ライブマンとマティングリィ1985年)

In preceding sections, we examined some of these phenomena, including categorical perception and several phonetic context effects, and concluded that they were not, in fact, unique to speech or to human listeners.
すぐ前の章では、私達は、これらの現象のいくつかを検証した。それらには、カテゴリー近くやいくつかの音素文脈効果を含んでおり、それらは、音声や人間の聞き手に対して実は唯一のものではないということに結論付けた。

Another phenomenon claimed to be diagnostic of perception in the speech mode is duplex perception.
音声方法における知覚の診断上に役立つために批判されたもう一つの現象は、重複知覚である。

When all of a synthetic /da/ or /ga/ syllable except for the F2 transition (which specifies place of articulation) is presented to one ear of a listener and the F2 transition alone is presented in proper temporal alignment to the other ear, the listener experiences two percepts: a nonspeech "chirp" (corresponding to the F2 transition alone) and a full /da/ or /ga/ syllable.
第2フォルマント(それは、はっきりした発音の場所を明細に言う))遷移を除く統合的な/da/や/ga/の音節は、聞き手の一つに提示され、第2フォルマントだけが、猛一つの耳へ適切な一時の直線として提示される時、聞き手は2つの知覚を経験する。それは、非言語の「チューチュー」(第2フォルマントだけに一致して)と/da/と/gaでみたされた音節である。

Thus, the same acoustic property is perceived in two very different ways, reflecting, according to Liberman & Mattingly (1985), the operation of both a speech and a nonspeech module that use the same input signal to create representations of distinct sound sources.
このようにして、同じ音響の特性は、2つのまさに異なった方法で知覚される。それは、ライブマンやマティングリー(1985年)によると、識別された音声の根源の表現を想像する同じ入力信号を使う音声または非音声のモジュールである。

However, Fowler & Rosenblum (1991) demonstrated an analog of duplex perception for the sound of a slamming door, with the high-frequency portion of the signal presented to one ear and the rest of the signal presented to the other ear.
しかしながら、フォウラーとロゼンブラム(1991年)は、バタンと閉めるドアの音に対する重複した知覚の類似物を論証している。それは、一つの耳に提示された信号の高い周波数の一部分であり、猛一つの耳には残りの信号を提示される。

Because it is unlikely that humans have evolved specialized modules for slamming doors, Fowler & Rosenblum concluded that duplex perception does not provide clear evidence for MT.
人間は、バタンとしまるドアに対する特別なモジュールを徐々に進化させるということはありそうもないので、フォウラーとロゼンブラムは、重複した知覚は、MTにとってはっきりした証拠を生み出すものではないということを結論づけた。

A main challenge for motor theorists, therefore, is to offer more compelling evidence of genuine speech- and human-specific perceptual performance.
運動理論の主な挑戦は、それゆえに、本物の音声と人間の明白に示された知覚性能の無理な証拠を進めるkとである。

Direct Realist Theory
直接現実主義者理論

A core assumption of DRT is that perceivers recover the actual environmental events that structure informational media such as light or sound.
DRTの中心的な仮説は、知覚する者が光や音などのそのような情報メディアを構築する実際的な環境事象を取り戻した。

Plainly, some environmental properties are perceptually accessible.
はっきり言えば、いくつかの環境と特性は、知覚的に理解しやすいのである。

Among them are the visually and haptically accessible layout of surfaces in the environment and the auditorily accessible location of sound sources.
それらの間には、視覚的振動的な近づきやすい環境の表面のレイアウトであり、音源の場所に音源的に近づきやすいものがある。

However, certain other environmental properties that structure light or sound are not similarly accessible.
しかしながら、光や音を構築する、ある他の環境特性
は同じように近づきやすいのではない。

For example, organisms that are limited to two or three types of cone photopigments cannot unambiguously recover the spectral distribution of reflected light because every pattern of cone responses is compatible with an infinite set of hypothetical surface reflectances.
たとえば、円錐の光色素の2つか3つのタイプに限定された有機体は、反射された非k理のスペクトルの識別をあやふやなしに取り戻すことはできない。

In order for any environmental property to be perceptually recoverable in principle, there must be information available to the perceiver that uniquely specifies that property.
原理における知覚的に回復できる環境特性のために、その特性を独自に明細に言う知覚者へ情報をすぐ利用できるようにされなければならない。

This essential condition is met in the case of visual perception of surface layout [assuming some general constraints such as rigidity (Ullman 1984)] and in the case of auditory perception of sound location (Grantham 1995), but the condition is not met in the case of visual detection of surface reflectance.
この必須条件は、表面レイアウトの視覚的な認知の場合[がんこさのようないくつかの一般的な強制を事実だとしながら]そして、音の位置の音響的認知の場合に起こる。しかし、その条件が表面反射率の視覚的な検出の場合には起こらない。

The question of interest here is, Do acoustic signals uniquely specify the properties of sound sources such as the vocal tract?
ここで興味のあるおもしろい質問がある。音響的な信号は、声の広がりのように音源の特質を独自に明示するのだろうか。

The answer appears to be no.
こたえは、「いいえ」として現れるだろう。

Even if one restricts the discussion to anatomically possible vocal tract shapes, there are many different ways to produce a given speech signal.
もし一人が可能な声の広がりの形を自動的に議論を制限するとしても、与えられた音声信号を生産する異なった方法があるだろう。

For example, approximately the same formant pattern can be achieved either by rounding the lips, lowering the larynx, or doing a little of both (Riordan 1977).
例えば、おおよそ同じフォルマントのパタンあ、唇を丸くする、喉頭を低くする、また両方ともほんの少しアルのいずれかを実行されることができる。

Also, one can produce the distinctively low-frequency F3 of the American English vowel contained in the word "her" by making vocal tract constrictions at the lips, midpalate, or the midpharynx, or at some combination of these places (Ohala 1985, Lindau 1985).
また、誰もが唇、中央の皿、また咽頭、もしくはこれらの場所の組み合わせのよって声の広がりの圧縮を作っていくことによって、"her"という単語において含まれるアメリカ英語の母音の低い周波数の第3フォルマントを識別的に生成することができるのである。

Additional evidence that different gestures can yield similar acoustic patterns is presented in Ladefoged et al. (1972), Nearey (1980), and Johnson et al. (1993).
他の手振りが同じ音響パタンを算することができるという付加的な証拠は、レイドフォウグドら(1993年)、ニアリ(1980年)そしてジョンソンら(1993年)によって提示される。

Acoustic ambiguity of source specification also holds outside the domain of speech.
根源の記述の音響的な曖昧さはまた、音声の領域外に保持されることにもなった。

For example, in a paper titled "One Cannot Hear the Shape of a Drum," Gordon et al. (1992) proved mathematically that quite different drum shapes can produce identical acoustic signals.
例えば、「誰もがドラムの形を聞くことはできない」という標題の紙において、ゴードン(1992年)は全く違ったドラムの形が同一化した音響信号を生み出すということを数学的に証明した。

Also, the same resonant sound can be initiated by air pressure sources generated by piston-like compression, bellows-like compression, or by a heat-induced pressure increase in a fixed container.
そしてまた、同じ針響く音は、空気のピストンのような圧縮、大声でなくアッシュk、また、合成された入れ物の中で暑さが引き起こす圧縮の増大によってのような空気の圧縮の根源によって始められる。

Examples of such source ambiguity appear to be pervasive.
これらの根源のあいまいさの例は広がりを見せている。

In attempting to solve the "inverse problem" (i.e., mapping speech signals onto vocal tract shapes that produced them), speech-processing engineers have found it necessary to assume various facts such as length or certain other characteristics of the vocal tract (Atal & Hanauer 1971, McGowan 1994).
「逆の問題」(例えばそれらを生産した声の広がりの形の上お音声信号をマッピングすること)を解くことを試みることにおいて、音声生成の技術者は、音声の広がりを長さやある他の性格のような多様な要因が必要に見えるかもしれない。

Without such assumptions, the inverse problem appears to be intractable.
そのような仮説なしに、逆の問題点が、手に負えないように現れる。

In principle, this is not a problem for MT, which assumes that the speech module reflects the coevolution in humans of both production and perception.
原則的に、これはMTにとっては問題点ではない。それは、音声モジュールは、生成とちかっくの両方の人間における共通化を反映している。

In this view, the human perceiver of speech sounds has implicit knowledge of the speech production apparatus, which presumably can be applied to solve the inverse problem.
この見地において、音声の人間の知覚者は、音声生成機器の暗黙の知識を持っている。それは、思うに反対の問題を解決するのに当てられることができる。

However, DRT does not have this recourse.
しかしながら、DRTはこの依頼を持っていない。

According to Fowler (1989), nonhuman listeners can perceive human speech gestures just as humans can (which is why parallels between human and nonhuman perceptual performance are not viewed as surprising from the perspective of DRT).
フォウラー(1989年)にしたがって、人間でない聞き手は、人間ができるように人間の音声手振りを知覚することができる。(それは、なぜ人間と非人間の認知的な実践の間の平行がDRTの考え方から驚くように見られるのではない。

Clearly, Japanese quail and macaque monkeys do not have the implicit knowledge of the human vocal tract that might constrain the solution to the inverse problem.
明らかに日本のウズラとマスキーサルは、反対の問題に対する解決を強いておさえる人間の音声の広がりの暗黙の知識を持っていない。

Thus, a major challenge for DRT is to offer a credible solution to the inverse problem that does not rely on prior knowledge of the human vocal tract.
このようにして、DRTに対する主な挑戦は人間の音声の広がりの先の知識を信頼することのない反対の問題を信頼できる解決を進めることである。

General Approach
一般的なアプローチ

We have described GA as a general framework within which specific hypotheses are formulated and tested.
私達は明確な仮設が形成され試された中の一般的な骨組みとしてGAを記述した。

Some of these hypotheses (e.g., threshold of temporal ordering, dispersion and auditory enhancement, spectral and durational contrast, and covariance learning) were discussed in light of relevant findings, and the overall approach seems promising.
これらの仮説のいくつか(例えば、一時的な命令の入り口、分布と音響の高揚、スペクトルと持続の対照、そして、共分散の学習)は適切な発見を考慮して、論議された。そして全部の接近は、約束されるように見える。

Nevertheless, the challenges facing GA are daunting.
それにもかかわらず、GAに直面する挑戦は、ひるませている。

They fall into two general categories, reflecting the dual emphasis of GA on auditory processing and perceptual learning.
それらは2つの一般的なカテゴリーに倒れていく。音響的過程と認知的学習についてのGAの2つの強調を反映しながら。

Our knowledge of mammalian auditory processing is large and growing, but detailed and accurate models are still largely restricted to the auditory periphery.
哺乳類の音響家庭の知識は、大きく成長している。しかし、詳しい正確なモデルは、音響の周囲にいまだに大きく制限されている。

Some of the hypotheses described within the GA framework (e.g., durational contrast) are not independently justified on the basis of known mechanisms of auditory processing and are therefore rather ad hoc.
GAの枠組み内で論述されている仮説のいくつか(例えば持続中の対照)は、音響過程の良く知られたメカニズムの基本の上に独立的に正当性を示されているのではなく、それらはむしろその場しのぎである。

Related to this, there are not yet principled grounds for precisely predicting the conditions under which such hypotheses apply.
これに関連して、そのような仮説が用いる元での条件を正確に予言することに対して原理的な背景は今のところない。

For example, evidence for durational contrast has been reliably found in some conditions (Diehl & Walsh 1989) but not in others (Fowler 1992).
例えば、中間的な対象に対する証拠は、いくつかの条件(ディールとワルシュ1989年))によって信頼的に発見されているが、他のところ(フォウラー1992年)では発見されていない。

We need to know a great deal more about auditory processing, especially beyond the auditory nerve, to properly constrain our models of speech perception.
私達は、音響家庭についてもっと多く配分しなければならないということを知ることが必要である。特に音響神経の範囲を超えて、音声知覚のモデルを強く適切にするために。

Particular attention must be focused on the role of neural plasticity at higher levels of the auditory pathway.
特異な注意は音響の小道のより高いレベルにおいて神経の柔軟さの役割に焦点を当てなければならない。

Current knowledge about how humans learn speech categories is even more limited.
人間の音声カテゴリーがどのようになっているかという現代の知識はより多く限られている。

As reviewed earlier, we are beginning to understand how listeners respond to various statistical properties of stimuli when experimenters control the input distributions.
前に述べたように、私達は、聞き手が実験者が入力配分を制御した時刺激の広範囲にわたる統計上の特性に反応するかを理解し始めたところである。

However, we lack comprehensive measurements of the statistical properties of natural speech sounds in the listener's environment.
しかしながら、和足たちは、聞き手の環境における自然な音声知覚の統計上の特性の方核的な測定を欠いているのである。

Without such measurements, it is impossible to formulate models of natural language learning with good predictive power.
そのような測定をしないで、よい予言的な力を持って、自然言語学習のモデルを公式化することは困難である。

Therefore, a major challenge for GA is to develop hypotheses based on far more accurate information about the auditory representation of speech and the statistical properties of natural speech.
それゆえに、GAに対する主な挑戦は、音声の音響的な表現や自然音声の統計的な特性についてのより正確な情報に基づく仮説を発展させていくことである。

Preparation of this chapter was supported by NIH Grant R01 DC00427-14 to RLD and NIH Grant R01 DC04674-02 to AJL and LLH. We thank Sarah Sullivan for her help in preparing the manuscript.
この章で述べることはNIHグラント R01 DC00427-14 へ RLD と NIH グラント R01 DC04674-02 へ AJL と LLH.

The Annual Review of Psychology is online at http://psych.annualreviews.org
http://psych.annualreviews.orgにオンラインで一年の心理学批評がある。

Abramson AS, Lisker L. 1970. Discriminability along the voicing continuum: cross language tests. In Proc. Int. Congr. Phonet. Sci., 6th, Prague, 1967, pp. 569-73. Prague: Academia
バブラソンAS 1970年。発声の連続に沿う判別:言語テストを通して、

Abramson AS、Lisker L.1970。。音声の連続に関わっての識別性:言語テストと交差させながら、の中で。In Proc. Int. Congr. 音声科学 第6巻。プラハ、1967年、pp.569-73。プラハ:研究者

Aslin RN, Pisoni DB, Hennessy BL, Perey AJ. 1981. Discrimination of voice onset time by human infants: new findings and implications for the effects of early experience. Child Dev. 52:1135-45 [Medline] [ISI]
アスリンRN,ピソニーDB、ヘネシーBL、ペルリーAJ1981年。人間の幼児による音声襲撃時間の弁別・早期の経験の効果に対する新しい発見と含蓄。

Aslin RN、Pisoni DB、ヘネシーBL(Perey AJ)。1981.人間の幼児による有声開始時間の識別性:新しい初期の経験の影響に対する。新しい発見および含み。子供の発達。52:1135-45 [Medline][ISI]

Atal BS, Hanauer SL. 1971. Speech analysis and synthesis by linear prediction of the speech wave. J. Acoust. Soc. Am. 50:637-55 [Medline] [ISI]
Atal BS(Hanauer SL)。1971.スピーチ波の線形の予測によるスピーチ分析及び合成。J.Acoust。Soc。50:637-55 [Medline][ISI]


Best CT. 1993. Emergence of language-specific constraints in perception of non-native speech: a window on early phonological development. In Developmental Neurocognition: Speech and Face Processing in the First Year of Life, ed. B de Boysson-Bardies, S de Schonen, P Jusczyk, P MacNeilage, J Morton, pp. 289-304. Norwell, MA: Kluwer Acad. Best CT。1993.言語の細目の出現が母国語としない言語に強いること。初期の音韻論の開発中の見方として。。発展的な神経工学の中で:生まれて一年目の言葉や顔の表情。B de Boysson-Bardies、S de Schonen、P Jusczyk、P MacNeilage、J Morton(pp.289-304)。Norwell、マサチューセッツ:Kluwerアカデミー。

Best CT. 1995. A direct realist view of cross-language speech perception. In Speech Perception and Linguistic Experience: Issues in Cross-Language Research, ed. W Strange, pp. 171-206. Baltimore, MD: New York Press
Best CT. 1995.クロス言語の音声知覚の直接の現実の視界。音声知覚および言語の経験の中で:クロス言語の研究の教育問題W Strange, pp. 171-206. Baltimore, MD: ニューヨーク出版

Best CT, McRoberts GW, Sithole NM. 1988. Examination of perceptual reorganization for nonnative speech contrasts: Zulu click discrimination by English-speaking adults and infants. J. Exp. Psychol.: Hum. Percept. Perform. 14:345-6 [CrossRef] [Medline] [ISI]
Best CT、McRoberts GW(Sithole NM)。1988.植民地人のスピーチ差異のための知覚再編成の検査:英語を話す大人および幼児によるズールー人の舌打ち音の弁別。J. 心理学実験.: Hum. Percept. Perform 14:345-6[CrossRef][Medline][ISI]

Brunswik E. 1956. Perception and the Representative Design of Psychological Experiments. Berkeley: Univ. Calif. Press
Brunswik E. 1956.心理学実験における認知と代表的なひながた。Berkeley: カリフォルニア大学出版

Chomsky N. 1965. Aspects of the Theory of Syntax. Cambridge, MA: MIT Press
Chomsky N. 1965.統語論の理論に基づく表情 マサチューセッツケンブリッジ: マサチューセッツ工科大学出版

Delattre PC, Liberman AM, Cooper FS. 1951. Voyelles synthetiques a deux formants et voyelles cardinales. Le 96:30-37 Delattre PC, Liberman AM, Cooper FS. 1951.母音総合の2つの基本 Le 96:30-37

Delattre PC, Liberman AM, Cooper . 1955. Acoustic loci and for consonants. J. Acoust. Soc. Am. 27:769-73 [ISI] Delattre PC, Liberman AM,派遣医師 FS. 1955 子音に対する音響の中枢と過渡期のきっかけ J. Acoust.社会学 Am. 27:769-73

Delattre PC, Liberman AM, Cooper FS. 1964. Formant transitions and loci as acoustic correlates of place of articulation in American fricatives. Stud. Linguist. 18:104-21
Delattre PC, Liberman AM,派遣医師 FS.1964 アメリカフォルマント遷移と人の摩擦音における発音の:場所の音響に関-する関連形式移行と中枢 学生語学者 18:104-21

Delattre PC, Liberman AM, Cooper FS, Gerstman LJ. 1952. An experimental study of the acoustic determinants of vowel color. Word 8:195-210

Delattre PC, Liberman AM, 派遣医師 FS, Gerstman LJ. 1952. 母音の特色の音声的決定要因の実験的研究 言葉8:195-210. 言語 8:195-210

de Sa VR, Ballard DH. 1998. Category learning through multimodal sensing. Neurol. Comput. 10:1097-117 [CrossRef] [Medline] [ISI]

de Sa VR, Ballard DH. 1998. マルチメディア感覚を通してのカテゴリー学習. 神経学とコンピュータ10:1097-117 [CrossRef] [Medline] [ISI]

Diehl RL. 1987. Auditory constraints on speech perception. In The Psychophysics of Speech Perception, ed. MEH Schouten, 39:210-19. Dordrecht: Martimus-Nihboff

Diehl RL. 1987. 音響が音声知覚をさせること。音声知覚の心理学において。 ed. MEH Schouten, 39:210-19. Dordrecht: Martimus-Nihboff

Diehl RL. 1991. The role of phonetics within the study of language. Phonetica 48:120-34 [Medline] [ISI]

Diehl RL. 1991. 言葉の研究の範囲内における音声の役割 音声学 48:120-34 [Medline] [ISI]

Diehl RL, Kluender KR. 1987. On the categorization of speech sounds. In Categorical Perception, ed. S Harnad, pp. 226-53. London: Cambridge Univ. Press

Diehl RL, Kluender KR. 1987. 音声の音の分類について。断定的な知覚, ed. S Harnad, pp. 226-53. ロンドン: ケンブリッジ大学出版

Diehl RL, Kluender KR. 1989a. On the objects of speech perception. Ecol. Psychol. 2:121-44

Diehl RL, Kluender KR. 1989a. 音声知覚の対象. 生態学 心理学. 2:121-44

Diehl RL, Kluender KR. 1989b. 注釈者への反応. 生態学. 心理学. 1:195-225

Diehl RL, Kluender KR. 1989b. Reply to commentators. Ecol. Psychol. 1:195-225

Diehl RL, Lindblom B, Creeger CP. 2003. Increasing realism of auditory representations yields further insights into vowel phonetics. In Proc. Int. Congr. Phon. Sci., 15th, Barcelona. 2:1381-84. Adelaide: Causal Publications

Diehl RL, Lindblom B, Creeger CP. 2003. 音響の表現の現実性の増加は母音の音声学へより深い洞察を生み出す。第15回音声科学の国際会議承認,バルセロナ. 2:1381-84. アデレード: 不定期の出版

Diehl RL, Molis MR. 1995. Effects of fundamental frequency on medial [voice] judgments. Phonetica 52:188-95 [Medline] [ISI]

Diehl RL, Molis MR. 1995. 医学(音声)判断における基礎的な効果. 音声学 52:188-95 [Medline] [ISI]

Diehl RL, Molis MR, Castleman WA. 2001. Adaptive design of sound systems: some auditory considerations. In The Role of Perceptual Phenomena in Phonological Theory, ed. K Johnson, E Hume, pp. 123-39. San Diego: Academic

Diehl RL, Molis MR, Castleman WA. 2001. 音声システムの適応性のあるデザイン: いくつかの音響の考慮. 音韻系の認知現象の役割, 教育. K Johnson, E ヒューム, pp. 123-39. サンディエゴ:研究者

Diehl RL, Souther AF, Convis CL. 1980. Conditions on rate normalization in speech perception. Percept. Psychophys. 27:435-43 [Medline] [ISI]

Diehl RL, Souther AF, Convis CL. 1980. 音声知覚における割合の標準化の条件. 認知. 精神整理学. 27:435-43 [Medline] [ISI]

  Diehl RL, Walsh MA. 1989. An auditory basis for the stimulus-length effect in the perception of stops and glides. J. Acoust. Soc. Am. 85:2154-64 [Medline] [ISI]

Diehl RL, Walsh MA. 1989. 閉鎖と渡り音の知覚における刺激の長さに対する音響の基礎. J. Acoust. 社会. Am. 85:2154-64 [Medline] [ISI]

Diehl RL, Walsh MA, Kluender KR. 1991. On the interpretability of speech/nonspeech comparisons: a reply to Fowler. J. Acoust. Soc. Am. 89:2905-9 [Medline] [ISI]

Diehl RL, Walsh MA, Kluender KR. 1991.音声とそうではない音声の解釈性について: ふぁウラーに対する回答. J. 音響科学. Am. 89:2905-9 [Medline] [ISI]

Dooling RJ, Best CT, Brown SD. 1995. Discrimination of synthetic full-formant and sinewave /ra-la/ continua by budgerigars (Melopsittacus undulatus) and zebra finches (Taeniopygia guttata). J. Acoust. Soc. Am. 97:1839-46 [Medline] [ISI]

Dooling RJ, Best CT, Brown SD. 1995. 統合的に完全に形式化された弁別とセキセイインコによるサインカーブの/ra-la/の連続(Melopsittacus 波のように揺れる) とシマウマ鳥(Taeniopygia 液状の). J. 音響社会. Am. 97:1839-46 [Medline] [ISI]

Eilers RE. 1977. Context-sensitive perception of naturally produced stop and fricative consonants by infants. J. Acoust. Soc. Am. 61:1321-36 [Medline] [ISI]

Eilers RE. 1977. 自然に作られる文脈に敏感な閉鎖音と、幼児の摩擦による子音。. J. Acoust. 社会. Am. 61:1321-36 [Medline] [ISI]
Eimas PD. 1974. Auditory and linguistic processing of cues for place of articulation by infants. Percept. Psychophys. 16:513-21 [ISI]
Eimas PD. 1974. 幼児による構音の場所に対するきっかけの音響及び語学上の加工. 知覚. 精神生理学. 16:513-21 [ISI]

Eimas PD. 1991. Comment: some effects of language acquisition on speech perception. In Modularity and the Motor Theory of Speech Perception, ed. IG Mattingly, M Studdert-Kennedy, pp. 111-16. Hillsdale, NJ: Erlbaum

Eimas PD. 1991. 評論:音声知覚における言葉の獲得の効果. 音声知覚教育のモジュールと運動理論において. IG Mattingly, M Studdert-Kennedy, pp. 111-16. Hillsdale, NJ: Erlbaum

Eimas PD, Siqueland ER, Jusczyk P, Vigorito J. 1971. Speech perception in infants. Science 171:303-6 [Medline] [ISI]

Eimas PD, Siqueland ER, Jusczyk P, Vigorito J. 1971. 幼児の音声知覚. 科学 171:303-6 [Medline] [ISI]

Elman JL, Diehl RL, Buchwald SE. 1977. Perceptual switching in bilinguals. J. Acoust. Soc. Am. 62:971-74 [ISI]

Elman JL, Diehl RL, Buchwald SE. 1977. バイリンガルの知覚の切り替え. J. Acoust. 社会. Am. 62:971-74 [ISI]

Elman JL, McClelland JL. 1988. Cognitive penetration of the mechanisms of perception: compensation for coarticulation of lexically restored phonemes. J. Mem. Lang. 27:143-65 [ISI]
Elman JL, McClelland JL. 1988. Cognitive penetration of 知覚のメカニズムの認知の洞察: 語彙に蓄積された意味素の継続. J. Mem. Lang. 27:143-65 [ISI]

Fowler CA. 1980. Coarticulation and theories of extrinsic timing. J. Phon. 8:113-33 [ISI]

Fowler CA. 1980. 継続と外部からの時間調整の発音と理論. J. 音声学. 8:113-33 [ISI]

   Fowler CA. 1981. Production and perception of coarticulation among stressed and unstressed vowels. J. Speech Hear. Res. 24:127-39 [Medline]

Fowler CA. 1981. 語勢があるのとない母音の間の調音結合と認知. J. 音声を聞く. Res. 24:127-39 [Medline]

Fowler CA. 1984. Segmentation of coarticulated speech in perception. Percept. Psychophys. 36:359-68 [Medline] [ISI]

Fowler CA. 1984. 認知におけるはっきりした発音の音声の分割. 認知心理学. 36:359-68 [Medline] [ISI]

Fowler CA. 1986. An event approach to the study of speech perception from a direct-realist perspective. J. Phon. 14:3-28 [ISI]

Fowler CA. 1986. 直接的現実的な考え方の研究への行事接近. J.音声学 . 14:3-28 [ISI]

Fowler CA. 1989. Real objects of speech perception: a commentary on Diehl and Kluender. Ecol. Psychol. 1:145-60

Fowler CA. 1989. 音声知覚の本当の対象:DiehlとKluenderに関する評論. 生態学. 心理学. 1:145-60

Fowler CA. 1990. Sound-producing sources as objects of perception: rate normalization and nonspeech perception. J. Acoust. Soc. Am. 88:1236-49 [Medline] [ISI]

Fowler CA. 1990. 認知対象としての音の生成:ノーマライゼーションと音声知覚ではないものとの比較. J. 聴覚. 科学. Am. 88:1236-49 [Medline] [ISI]

Fowler CA. 1991. Auditory perception is not special: We see the world, we feel the world, we hear the world. J. Acoust. Soc. Am. 89:2910-15 [Medline] [ISI]

Fowler CA. 1991. 音響認知は特別なものではない:私達は世界を見、感じ、聞くのである. J. 音声. 科学. Am. 89:2910-15 [Medline] [ISI]

Fowler CA. 1992. Vowel duration and closure duration in voiced and unvoiced stops: There are no contrast effects here. J. Phon. 20:143-65 [ISI]

Fowler CA. 1992. 有性と無声の閉鎖における母音の持続と終結: ここにはT対比の効果はない。 J. 音声学. 20:143-65 [ISI]

Fowler CA. 1994. Speech perception: direct realist theory. In The Encyclopedia of Language and Linguistics, ed. RE Asher, pp. 4199-203. Oxford: Pergamon

Fowler CA. 1994. 音声知覚: 直接的現実的な理論. 言語と言語学の百科事典, 教育. RE Asher, pp. 4199-203. オックスフォード: Pergamon

Fowler CA. 1996. Listeners do hear sounds, not tongues. J. Acoust. Soc. Am. 99:1730-41 [Medline] [ISI]

Fowler CA. 1996. 聞き手は、舌ではなく音を聞く J. 音響. 科学. Am. 99:1730-41 [Medline] [ISI]

Fowler CA, Best CT, McRoberts GW. 1990. Young infants' perception of liquid coarticulatory influences on following stop consonants. Percept. Psychophys. 48:559-70 [Medline] [ISI]

Fowler CA, Best CT, McRoberts GW. 1990. 流音音声学の幼児の知覚は、続く閉鎖子音に影響を与える。認知心理学. 48:559-70 [Medline] [ISI]

Fowler CA, Brown JM, Mann VA. 2000. Contrast effects do not underlie effects of preceding liquids on stop-consonant identification by humans. J. Exp. Psychol.: Hum. Percept. Perform. 26:877-88 [CrossRef] [Medline] [ISI] Fowler CA, Brown JM, Mann VA. 2000. 対比効果は人間の閉鎖子音の同定の基礎とはならない。. J. Exp. Psychol.: Hum. 認知. Perform. 26:877-88 [CrossRef] [Medline] [ISI]

Fowler CA, Dekle D. 1991. Listening with eye and hand: crossmodal contributions to speech perception. J. Exp. Psychol.: Hum. Percept. Perform. 17:816-28 [CrossRef] [Medline] [ISI]

Fowler CA, Dekle D. 1991. 目や手を使った聞き取り: 音声知覚に対するクロスもダル的な寄与. J. Exp. Psychol.: Hum. Percept. Perform. 17:816-28 [CrossRef] [Medline] [ISI]

Fowler CA, Rosenblum LD. 1991. The perception of phonetic gestures. In Modularity and the Motor Theory of Speech Perception, ed. IG Mattingly, M Studdert-Kennedy, pp. 33-59. Hillsdale NJ: Erlbaum

Fowler CA, Rosenblum LD. 1991. 表音の手振りの認知. 話し言葉認知におけるモジュラリティーと運動, 教育. IG Mattingly, M Studdert-Kennedy, pp. 33-59. Hillsdale NJ: Erlbaum

Fowler CA, Smith MR. 1986. Speech perception as "vector analysis": an approach to the problems of invariance and segmentation. In Invariance and Variability in Speech Processes, ed. JS Perkell, DH Klatt, pp. 123-39. Hillsdale, NJ: Erlbaum

Fowler CA, Smith MR. 1986. 「ベクトル分析」としての音声知覚S: 矛盾がないものと分割の問題点へのアプローチ. 音声家庭の矛盾がないことと異変性, 教育. JS Perkell, DH Klatt, pp. 123-39. Hillsdale, NJ: Erlbaum

Frieda EM, Walley AC, Flege JE, Sloane ME. 1999. Adults' perception of native and nonnative vowels: implications for the perceptual magnet effect. Percept. Psychophys. 61:561-77 [Medline] [ISI]

Frieda EM, Walley AC, Flege JE, Sloane ME. 1999. ネーティブとそうでない人の母音の大人における認知: 認知的ひきつけ効果に対する含蓄. 認知心理学. 61:561-77 [Medline] [ISI]

Gibson JJ. 1966. The Senses Considered as Perceptual Systems. Boston: Houghton Mifflin

Gibson JJ. 1966.認知システムとしての考えられる感覚機能. ボストン: Houghton Mifflin

Gibson JJ. 1979. The Ecological Approach to Visual Perception. Boston: Houghton Mifflin

Gibson JJ. 1979. 視覚知覚に対する生態学的なアプローチ. ボストン: Houghton Mifflin

Gordon C, Webb DL, Wolpert S. 1992. One cannot hear the shape of a drum. Bull. Am. Math. Soc. 27:134-38 [ISI]

Gordon C, Webb DL, Wolpert S. 1992. だれも太鼓の形を聞き分けることができない。. Bull. Am. 数学. 社会. 27:134-38 [ISI]

Grantham DW. 1995. Spatial hearing and related phenomena. In Hearing, ed. B Moore, pp. 297-345. San Diego, CA: Academic

Grantham DW. 1995. 空間的な著力と関係する現象.音響において, 教育. B Moore, pp. 297-345. サンディエゴ, カリフォルニア: Academic

Guenther FH, Husain FT, Cohen MA, Shinn-Cunningham BG. 1999. Effects of categorization and discrimination training on auditory perceptual space. J. Acoust. Soc. Am. 106:2900-12 [CrossRef] [Medline] [ISI]

Guenther FH, Husain FT, Cohen MA, Shinn-Cunningham BG. 1999. カテゴリー化の効果と音響の知覚空間の弁別. J. Acoust. 社会. Am. 106:2900-12 [CrossRef] [Medline] [ISI]

Hammarberg R. 1976. The metaphysics of coarticulation. J. Phon. 4:353-63

Hammarberg R. 1976. 構音の形而上学 J. Phon. 4:353-63

Hirsh IJ. 1959. Auditory perception of temporal order. J. Acoust. Soc. Am. 31:759-67 [ISI]

Hirsh IJ. 1959. 現世順序の音響認知. J. Acoust. 社会. Am. 31:759-67 [ISI]

Hirsh IJ, Sherrick CE. 1961. Perceived order in different sense modalities. J. Exp. Psychol. 62:423-32 [Medline]

Hirsh IJ, Sherrick CE. 1961. 異なる感覚のモダリティにおける知覚される順序. J. Exp. 心理学. 62:423-32 [Medline]

Holt LL. 1999. Auditory constraints on speech perception: an examination of spectral contrast. PhD thesis. Univ. Wis. 132 pp.

Holt LL. 1999. 音声知覚における音響の束縛:スペクトルの対象の試験. PhD thesis. Univ. Wis. 132 pp.

Holt LL, Lotto AJ, Diehl RL. 2003. Perceptual discontinuities and categorization: Implications for speech perception. J. Acoust. Soc. Am. 113:2255 [Medline]

Holt LL, Lotto AJ, Diehl RL. 2003. 知覚の不連続と分類: 音声知覚に対する含蓄. J. Acoust. 社会. Am. 113:2255 [Medline]

Holt LL, Lotto AJ, Kluender KR. 1998. Incorporating principles of general learning in theories of language acquisition. In Chicago Linguistic Society: The Panels, ed. M Gruber, CD Higgins, KS Olson, T Wysocki, 34:253-68. Chicago, IL: Chicago Linguist. Soc.

Holt LL, Lotto AJ, Kluender KR. 1998. 言語習得の理論における一般的な学習原理との結合.シカゴ言語社会: The Panels, ed. M Gruber, CD Higgins, KS Olson, T Wysocki, 34:253-68. シカゴ, IL: シカゴ言語学者. 社会.

Holt LL, Lotto AJ, Kluender KR. 2000. Neighboring spectral content influences vowel identification. J. Acoust. Soc. Am. 108:710-22 [CrossRef] [Medline] [ISI]Holt LL, Lotto AJ, Kluender KR. 2000. 近隣のスペクトルの中身が母音の同定化に影響を与える. J. Acoust. 社会. Am. 108:710-22 [CrossRef] [Medline] [ISI]

Holt LL, Lotto AJ, Kluender KR. 2001. Influence of fundamental frequency on stop-consonant voicing perception: a case of learned covariation or auditory enhancement? J. Acoust. Soc. Am. 109:764-74 [CrossRef] [Medline] [ISI]

Holt LL, Lotto AJ, Kluender KR. 2001. 閉鎖子音の音声知覚についての基礎的な周波数の影響:学習された共分散または音響の高揚の事例 J. Acoust. 社会. Am. 109:764-74 [CrossRef] [Medline] [ISI]

Johnson K, Flemming E, Wright R. 1993. The hyperspace effect: phonetic targets are hyperarticulated. Language 69:505-28 [ISI]
Johnson K, Flemming E, Wright R. 1993. 超空間の効果: 音声的対象はあまりにもはっきりし過ぎている. 言語 69:505-28 [ISI]

Jusczyk PW. 1993. From general to language-specific capacities: the WRAPSA model of how speech perception develops. J. Phon. 21:3-28 [ISI]

Jusczyk PW. 1993. 一般から言語明確性の容量へ: いかに音声知覚が発達するかというWRAPSAモデル. J. 音声学. 21:3-28 [ISI]

Jusczyk PW. 1997. The Discovery of Spoken Language. Cambridge, MA: MIT Press

Jusczyk PW. 1997. T話された言語の発見. ケンブリッジ, MA: MIT 出版

Jusczyk PW, Pisoni DB, Walley A, Murray J. 1980. Discrimination of relative onset time of two-component tones by infants. J. Acoust. Soc. Am. 67:262-70 [Medline] [ISI]

Jusczyk PW, Pisoni DB, Walley A, Murray J. 1980. 幼児による2つの構成している音の関係する兆候の弁別. J. Acoust. 社会. Am. 67:262-70 [Medline] [ISI]

Kingston J, Diehl RL. 1994. Phonetic knowledge. Language 70:419-54 [ISI]

Kingston J, Diehl RL. 1994. 音声学の知識. 言語 70:419-54 [ISI]

Kingston J, Diehl RL. 1995. Intermediate properties in the perception of distinctive feature values. In Phonology and Phonetics: Papers in Laboratory Phonology, ed. B Connell, A Arvaniti, 4:7-27. London: Cambridge Univ. Press

Kingston J, Diehl RL. 1995. 区別できる形の価値の近くにおけるすばやい財産: 実験音声学の論文P, 教育. B Connell, A Arvaniti, 4:7-27. ロンドン: ケンブリッジ大学出版

Kluender KR. 1994. Speech perception as a tractable problem in cognitive science. In Handbook of Psycholinguistics, ed. MA Gernsbacher, pp. 173-217. San Diego, CA: Academic

Kluender KR. 1994. 認知科学における従順な問題としての音声知覚. 心理言語学ハンドブック, 教育 MA Gernsbacher, pp. 173-217. サンディエゴ, CA: Academic

Kluender KR, Diehl RL, Killeen PR. 1987. Japanese quail can learn phonetic categories. Science 237:1195-97 [Medline] [ISI]

Kluender KR, Diehl RL, Killeen PR. 1987. 日本のウズラが音声分類を学習することができる. Science 237:1195-97 [Medline] [ISI]

Kluender KR, Lotto AJ, Holt LL, Bloedel SL. 1998. Role of experience for language-specific functional mappings of vowel sounds. J. Acoust. Soc. Am. 104:3568-82 [CrossRef] [Medline] [ISI]

Kluender KR, Lotto AJ, Holt LL, Bloedel SL. 1998. 母音の音の明確に示された言語に対する経験の機能的地図作成役割. J. Acoust. 社会. Am. 104:3568-82 [CrossRef] [Medline] [ISI]

Krakow RA, Beddor PS, Goldstein LM, Fowler CA. 1988. Coarticulatory influences on the perceived height of nasal vowels. J. Acoust. Soc. Am. 83:1146-58 [Medline] [ISI]

Krakow RA, Beddor PS, Goldstein LM, Fowler CA. 1988. 鼻腔母音の容認する高さの調音音声学の影響. J. Acoust. 社会. Am. 83:1146-58 [Medline] [ISI]

Kuhl PK. 1981. Discrimination of speech by nonhuman animals: basic auditory sensitivities conducive to the perception of speech-sound categories. J. Acoust. Soc. Am. 95:340-49
uhl PK. 1981. Discrimination of speech by nonhuman animals: basic auditory sensitivities conducive to the perception of speech-sound categories. J. Acoust. Soc. Am. 95:340-49

Kuhl PK. 1981. 人類以外の動物による話し言葉の弁別: 基礎的な音響器官が話し言葉の音のカテゴリー化の認知に対して助けとなるb. J. Acoust. 社会. Am. 95:340-49

K Kuhl PK. 1986. Theoretical contributions of tests on animals to the special mechanisms debate in speech. J. Exp. Biol. 45:233-65

K Kuhl PK. 1986. 話し言葉で特別なメカニズムの討論
に対する動物における試験の理論的寄与. J. Exp. Biol. 45:233-65

Kuhl PK. 1991. Human adults and human infants show a "perceptual magnet effect" for the prototypes of speech categories, monkeys do not. Percept. Psychophys. 50:93-107 [Medline] [ISI]

Kuhl PK. 1991. 人間の大人および人間の幼児は、スピーチ・カテゴリーの原型のための「知覚磁石結果」を示します、猿はしません。認知. 心理学. 50:93-107 [Medline] [ISI]

Kuhl PK. 1992. Speech prototypes: studies on the nature, function, ontogeny and phylogeny of the "centers" of speech categories. In Speech Perception, Production and Linguistic Structure, ed. Y Tohkura, E Vatikiotis-Bateson, Y Sagisaka, pp. 239-64. Tokyo, Jpn: Ohmsha

Kuhl PK. 1992. 話し言葉の原型:性質、話し言葉の分類の「中心」の機能、個体発生史および系統発生に関する研究。スピーチ知覚の中で、生産および言語の構造, ed. Y Tohkura, E Vatikiotis-Bateson, Y Sagisaka, pp. 239-64. 東京, 日本: オーム社

Kuhl PK. 1993. Innate predispositions and the effects of experience in speech perception: the native language magnet theory. In Developmental Neurocognition: Speech and Face Processing in the First Year of Life, ed. B de Boysson-Bardies, S de Schonen, P Jusczyk, P MacNeilage, J Morton, pp. 259-74. Dordrecht, Netherlands: Kluwer Acad.

Kuhl PK. 1993. 固有の素質、および音声知覚の経験の影響:母国語磁石理論。発展的なNeurocognitionの中で:ライフの最初の年のスピーチおよび顔処理, ed. B de Boysson-Bardies, S de Schonen, P Jusczyk, P MacNeilage, J Morton, pp. 259-74. Dordrecht, Netherlands: Kluwer Acad.

Kuhl PK. 2000. Language, mind, and the brain: Experience alters perception. In The New Cognitive Neurosciences, ed. MS Gazzaniga, pp. 99-115. Cambridge, MA: MIT Press

Kuhl PK. 2000. 言語、心および脳:経験は知覚を変更します。新しい認識の神経科学の中で, 教育. MS Gazzaniga, pp. 99-115. ケンブリッジ, MA: MIT 出版
Kuhl PK, Miller JD. 1975. Speech perception by the chinchilla: voiced-voiceless distinction in alveolar plosive consonants. Science 190:69-72 [Medline] [ISI]

Kuhl PK, Miller JD. 1975.チンチラによるスピーチ知覚:歯槽の破裂音の子音中の言葉に表した無言の区別 . 科学 190:69-72 [Medline] [ISI]

Kuhl PK, Miller JD. 1978. Speech perception by the chinchilla: identification functions for synthetic VOT stimuli. J. Acoust. Soc. Am. 63:905-17 [Medline] [ISI]
チンチラによるスピーチ知覚:合成のVOT刺激のための識別機能. J. Acoust. 社会. Am. 63:905-17 [Medline] [ISI]

Kuhl PK, Padden DM. 1983. マカーク中の場所特徴のための音声の境界での増強された区別可能。 J. Acoust. Soc. Am. 73:1003-10 [Medline] [ISI]

Ladefoged P, DeClerk J, Lindau M, Papcun G. 1972. An auditory-motor theory of speech production. UCLA Work. Pap. Phon. 22:48-75

Ladefoged P, DeClerk J, Lindau M, Papcun G. 1972. 話し言葉生産に関する音響のモータの理論。 UCLA Work. Pap. Phon. 22:48-75

Lane H. 1965. The motor theory of speech perception: a critical review. Psychol. Rev. 72:275-309 [Medline] [ISI]
Lane H. 1965. スピーチ知覚に関するモータ理論:重大な調査。心理学. Rev. 72:275-309 [Medline] [ISI]

Lasky RE, Syrdal-Lasky A, Klein RE. 1975. VOT discrimination by four to six and a half month old infants from Spanish environments. J. Exp. Child Psychol. 20:215-25 [Medline] [ISI]
Lasky RE, Syrdal-Lasky A, Klein RE. 1975. スペイン語の環境からきた4歳から6歳半までの幼児によるVOT弁別。 J. Exp. 児童心理学. 20:215-25 [Medline] [ISI]

Liberman AM. 1957. Some results of research on speech perception. J. Acoust. Soc. Am. 29:117-23 [ISI]

Liberman AM. 1957. 音声知覚についての研究のいくつかの結果。 J. Acoust. 社会. Am. 29:117-23 [ISI]

Liberman AM. 1996. Introduction: some assumptions about speech and how they changed. In Speech: A Special Code. Cambridge, MA: MIT Press
Liberman AM. 1996. 導入:音声に関するいくつかの仮定、そして、それらの変化。音声において:特別の符号。 Cambridge, MA: MIT Press

Liberman AM, Cooper FS, Shankweiler DP, Studdert-Kennedy M. 1967. Perception of the speech code. Psychol. Rev. 74:431-61 [Medline] [ISI]

Liberman AM, Cooper FS, Shankweiler DP, Studdert-Kennedy M. 1967. 音声コードに対する理解力. 心理学. Rev. 74:431-61 [Medline] [ISI]

Liberman AM, Delattre P, Cooper FS. 1952. The role of selected stimulus-variables in the perception of the unvoiced stop consonants. Am. J. Psychol. 65:497-516 [Medline] [ISI]

Liberman AM, Delattre P, Cooper FS. 1952. 無声閉鎖子音に対する理解力における選択された刺激変数の役割 Am. J. 心理学. 65:497-516 [Medline] [ISI]

Liberman AM, Delattre PC, Cooper FS, Gerstman LJ. 1954. The role of consonant-vowel transitions in the stop and nasal consonants. Psychol. Monogr. 68:1-13

Liberman AM, Delattre PC, Cooper FS, Gerstman LJ. 1954. 閉鎖および鼻音の子音における一致する母音の遷移の役割。 心理学. Monogr. 68:1-13

Liberman AM, Delattre PC, Gerstman LJ, Cooper FS. 1956. Tempo of frequency change as a cue for distinguishing classes of speech sounds. J. Exp. Psychol. 52:127-37 [Medline]

Liberman AM, Delattre PC, Gerstman LJ, Cooper FS. 1956. 音素のクラスを識別するための合図としての周波数変更の速さ。 J. Exp. 心理学. 52:127-37 [Medline]

Liberman AM, Harris K, Eimas P, Lisker L, Bastian J. 1961a. An effect of learning on speech perception: the discrimination of durations of silence with and without phonemic significance. Lang. Speech 4:175-95 [ISI]

Liberman AM, Harris K, Eimas P, Lisker L, Bastian J. 1961a. 音声知覚に対する学習する影響:音素の重要性を備えた、およびその重要性のない静寂の持続の弁別。 Lang. Speech 4:175-95 [ISI]

Liberman AM, Harris KS, Hoffman HS, Griffith BC. 1957. The discrimination of speech sounds within and across phoneme boundaries. J. Exp. Psychol. 54:358-68 [Medline] Liberman AM, Harris KS, Hoffman HS, Griffith BC. 1957. 音素境界内の、およびその境界を横切った音素の弁別。 J. Exp. 心理学. 54:358-68 [Medline]

Liberman AM, Mattingly IG. 1985. The motor theory of speech perception revised. Cognition 21:1-36 [CrossRef] [Medline] [ISI]

Liberman AM, Mattingly IG. 1985. 音声知覚に関するモータ理論、改訂版。 認知 21:1-36 [CrossRef] [Medline] [ISI]

Liberman AM, Mattingly IG, Turvey MT. 1972. Language codes and memory codes. In Coding Processes in Human Memory, ed. AW Melton, E Martin, pp. 307-34. Washington, DC: Winston

Liberman AM, Mattingly IG, Turvey MT. 1972. 言語コードおよび記憶コード。人間の記憶中のコード化するプロセスにおいて, 教育. AW Melton, E Martin, pp. 307-34. ワシントン, DC: Winston

Liljencrants J, Lindblom B. 1972. Numerical simulation of vowel quality systems: the role of perceptual contrast. Language 48:839-62 [ISI]

Liljencrants J, Lindblom B. 1972. 母音の質システムの数のシミュレーション:知覚差異の役割。言語48:839-62 [ISI]

Lindau M. 1985. The story of /r/. In Phonetic Linguistics, ed. V Fromkin, pp. 157-68. Orlando, FL: Academic

Lindau M. 1985. The story of /r/. 音声言語学において, 教育. V Fromkin, pp. 157-68. Orlando, FL: Academic

Lindblom BEF, Studdert-Kennedy M. 1967. On the role of formant transitions in vowel recognition. J. Acoust. Soc. Am. 42:830-43 [Medline] [ISI]

Lindblom BEF, Studdert-Kennedy M. 1967. 母音の認識におけるフォルマント遷移の役割上で。J. Acoust. Soc. Am. 42:830-43 [Medline] [ISI]

Lisker L, Abramson AS. 1964. A cross-language study of voicing in initial stops: acoustical measurements. Word 20:384-422

Lisker L, Abramson AS. 1964. 初期の閉鎖音で言葉に表すクロス語学研究:音響の測定。 Word 20:384-422

Lisker L, Abramson AS. 1970. The voicing dimension: some experiments in comparative phonetics. In Proc. Int. Congr. Phon. Sci., 6th, Prague, 1967, pp. 563-67. Prague: Academia

Lisker L, Abramson AS. 1970. 言葉に表す次元:相対的な音声学のいくつかの実験。 In Proc. Int. Congr. 音声科学., 6th, Prague, 1967, pp. 563-67. Prague: Academia

Lively SE, Pisoni DB. 1997. On prototypes and phonetic categories: a critical assessment of the perceptual magnet effect in speech perception. J. Exp. Psychol.: Hum. Percept. Perform. 23:1665-79 [CrossRef] [Medline] [ISI]

Lively SE, Pisoni DB. 1997. プロトタイプおよび音声のカテゴリー上で:スピーチ知覚中の知覚磁石結果の重大な評価。 J. Exp. Psychol.: Hum. 認知. Perform. 23:1665-79 [CrossRef] [Medline] [ISI]

Lotto AJ. 2000. Language acquisition as complex category formation. Phonetica 57:189-96 [CrossRef] [Medline] [ISI]

Lotto AJ. 2000.複雑なカテゴリー構成としての言語獲得。 音声学者 57:189-96 [CrossRef] [Medline] [ISI]

Lotto AJ, Kluender KR. 1998. General contrast effects of speech perception: effect of preceding liquid on stop consonant identification. Percept. Psychophys. 60:602-19 [Medline] [ISI]

Lotto AJ, Kluender KR. 1998. 音声知覚の一般的な子音の効果:閉鎖子音同定の流音に先行する効果。 認知心理学. 60:602-19 [Medline] [ISI]

Lotto AJ, Kluender KR, Holt LL. 1997. Perceptual compensation for coarticulation by Japanese quail (Coturnix coturnix japonica). J. Acoust. Soc. Am. 102:1134-40 [CrossRef] [Medline] [ISI]

Lotto AJ, Kluender KR, Holt LL. 1997. ウズラ(Coturnix共同ミフウズラ・ツバキ)による共同有節発音に対する知覚代償物。 J. Acoust. 社会. Am. 102:1134-40 [CrossRef] [Medline] [ISI]

Lotto AJ, Kluender KR, Holt LL. 1998. The perceptual magnet effect depolarized. J. Acoust. Soc. Am. 103:3648-55 [CrossRef] [Medline] [ISI]

Lotto AJ, Kluender KR, Holt LL. 1998. 知覚磁石結果、が消去した。 J. Acoust. 社会. Am. 103:3648-55 [CrossRef] [Medline] [ISI]

Maddieson I. 1984. Patterns of Sound. London: Cambridge Univ. Press

Maddieson I. 1984. 音のパタン. ロンドン: ケンブリッジ大学出版

Magnuson JS, McMurray B, Tanenhaus MK, Aslin RN. 2003. Lexical effects on compensation for coarticulation: the ghost of Christmash past. Cogn. Sci. 27:285-98 [CrossRef] [ISI]

Magnuson JS, McMurray B, Tanenhaus MK, Aslin RN. 2003. 共同有節発音に対する賠償金に対する語いの影響:クリスマスの過去のゴースト。 Cogn. Sci. 27:285-98 [CrossRef] [ISI]

Mann VA. 1980. Influence of preceding liquid on stop-consonant perception. Percept. Psychophys. 28:407-12 [Medline] [ISI]

Mann VA. 1980. 閉鎖子音知覚上の流音に先行する影響。認知心理学. 28:407-12 [Medline] [ISI]

Mann VA. 1986. Distinguishing universal and language-dependent levels of speech perception: evidence from Japanese listeners' perception of English "l" and "r". Cognition 24:169-96 [CrossRef] [Medline] [ISI]

Mann VA. 1986. スピーチ知覚の普遍的と、言語依存のレベルの識別:日本のリスナーの英語の「l」および「r」に対する理解力からの証拠。 認知 24:169-96 [CrossRef] [Medline] [ISI]

Mann VA, Repp BH. 1981. Influence of preceding fricative on stop consonant perception. J. Acoust. Soc. Am. 69:548-58 [Medline] [ISI]

Mann VA, Repp BH. 1981. 先立つ閉鎖子音知覚上で摩擦で生じる影響。 J. Acoust. Soc. Am. 69:548-58 [Medline] [ISI]

Massaro DW. 1987. Speech Perception by Ear and Eye: A Paradigm for Psychological Inquiry. Hillsdale, NJ: Erlbaum

Massaro DW. 1987. 耳と目による音声知覚:心理学の質問用の手法。 Hillsdale, NJ: Erlbaum

Massaro DW, Oden GC. 1980. Evaluation and integration of acoustic features in speech perception. J. Acoust. Soc. Am. 67:996-1013 [Medline] [ISI]

Massaro DW, Oden GC. 1980. 音声知覚中の音響の特徴の評価および統合。 J. Acoust. 社会. Am. 67:996-1013 [Medline] [ISI]

Mattingly IG, Liberman AM, Syrdal AK, Halwes T. 1971. Discrimination in speech and nonspeech modes. Cogn. Psychol. 2:131-57 [ISI]

Mattingly IG, Liberman AM, Syrdal AK, Halwes T. 1971. 音声と非音声の形態の弁別. Cogn. 心理学. 2:131-57 [ISI]

McGowan RS. 1994. Recovering articulatory movement from formant frequency trajectories using task dynamics and a genetic algorithm: preliminary results. Speech Commun. 14:19-49 [CrossRef] [ISI]

McGowan RS. 1994. フォルマント周波数軌道を使用する仕事力学および遺伝的アルゴリズムから発生の移動を回復すること:予備結果。Speech Commun. 14:19-49 [CrossRef] [ISI]

McGurk H, MacDonald J. 1976. Hearing lips and seeing voices. Nature 264:746-47 [Medline] [ISI]

McGurk H, MacDonald J. 1976. 唇を聞いて、声を見ること. Nature 264:746-47 [Medline] [ISI]

Miller JD, Wier CC, Pastore RE, Kelly WJ, Dooling RJ. 1976. Discrimination and labeling of noise-buzz sequences with varying noise-lead times: an example of categorical perception. J. Acoust. Soc. Am. 60:410-17 [Medline] [ISI]

Miller JD, Wier CC, Pastore RE, Kelly WJ, Dooling RJ. 1976. 弁別および変わる雑音準備期間の雑音うなり連続音のラベルを付けること:絶対的な知覚の例。 J. Acoust. Soc. Am. 60:410-17 [Medline] [ISI]

Miller JL. 1987. Rate-dependent processing in speech perception. In Progress in the Psychology of Language, ed. A Ellis, pp. 119-57. Hillsdale, NJ: Erlbaum

Miller JL. 1987. 音声知覚中の割合依存の処理。言語心理学、, 教育. A Ellis, pp. 119-57. Hillsdale, NJ: Erlbaum

Miller JL, Eimas PD. 1983. Studies on the categorization of speech by infants. Cognition 12:135-65 [CrossRef] [Medline]

Miller JL, Eimas PD. 1983. 幼児による音声分類に関する研究。 認知 12:135-65 [CrossRef] [Medline]

Miller JL, Liberman AM. 1979. Some effects of later-occurring information on the perception of stop consonant and semivowel. Percept. Psychophys. 25:457-65 [Medline] [ISI]

Miller JL, Liberman AM. 1979. 閉鎖子音および半母音に対する理解力についてのその後生じる情報のいくつかの影響。認知心理学. 25:457-65 [Medline] [ISI]

Nearey TM. 1980. On the physical interpretation of vowel quality: cinefluorographic and acoustic evidence. J. Phon. 8:213-41 [ISI]

Nearey TM. 1980. 母音の質の物理的な解釈上で:透視映画撮影法と音響の証拠。 J. Phon. 8:213-41 [ISI]

Nearey TM. 1989. Static, dynamic, and relational properties in vowel perception. J. Acoust. Soc. Am. 85:2088-113 [Medline] [ISI]

Nearey TM. 1989. 母音の知覚における静止の特性、動的な特性および関係性。 J. Acoust. 社会. Am. 85:2088-113 [Medline] [ISI]

Nearey TM. 1990. The segment as a unit of speech perception. J. Phon. 18:347-73 [ISI]

Nearey TM. 1990. 音声知覚の1単位しての区切り。 J. 音声学. 18:347-73 [ISI]

Nearey TM, Hogan J. 1986. Phonological contrast in experimental phonetics: relating distributions of production data to perceptual categorization curves. In Experimental Phonology, ed. JJ Ohala, J Jaeger, pp. 141-61. New York: Academic

Nearey TM, Hogan J. 1986. 実験の音声学の音韻論の差異:知覚分類曲線に生産データに分配を関連づけること。実験の音韻論の中で, 教育. JJ Ohala, J Jaeger, pp. 141-61. New York: Academic

Ohala JJ. 1985. Around flat. In Phonetic Linguistics: Essays in Honor of Peter Ladefoged, ed. VA Fromkin, pp. 223-41. Orlando, FL: Academic
Ohala JJ. 1985. Around flat. 音声の言語学の中で:ピーターレイドフォグド閣下中の随筆,教育. VA Fromkin, pp. 223-41. Orlando, FL: Academic

Ohala JJ. 1996. Speech perception is hearing sounds, not tongues. J. Acoust. Soc. Am. 99:1718-25 [Medline] [ISI]

Ohala JJ. 1996. 音声知覚は、音を聞くことであって、舌ではない. J. Acoust. 社会. Am. 99:1718-25 [Medline] [ISI]

Pastore RE. 1981. Possible psychoacoustic factors in speech perception. In Perspectives on the Study of Speech, ed. PD Eimas, JL Miller, pp. 165-205. Hillsdale, NJ: Erlbaum

Pastore RE. 1981. スピーチ知覚の可能な音響心理学の要因。スピーチに関する研究中の展望で, 教育. PD Eimas, JL Miller, pp. 165-205. Hillsdale, NJ: Erlbaum

Pegg JE, Werker JF. 1997. Adult and infant perception of two English phones. J. Acoust. Soc. Am. 102:3742-53 [CrossRef] [Medline] [ISI]

Pegg JE, Werker JF. 1997. 二つの英語の音の大人とこ幼児の認知. J. Acoust. Soc. Am. 102:3742-53 [CrossRef] [Medline] [ISI]

Pisoni DB. 1977. Identification and discrimination of the relative onset time of two component tones: implications for voicing perception in stops. J. Acoust. Soc. Am. 61:1352-61 [Medline] [ISI]

Pisoni DB. 1977. 2つの構成要素の調子の相対的な攻撃時間の識別および弁別:閉鎖音での知覚を言葉に表すための含意。 J. Acoust. Soc. Am. 61:1352-61 [Medline] [ISI]

Repp BH. 1981. On levels of description in speech research. J. Acoust. Soc. Am. 69:1462-64 [Medline] [ISI]

Repp BH. 1981. 音声研究の記述のレベルについて. J. Acoust. 社会. Am. 69:1462-64 [Medline] [ISI]

Riordan CJ. 1977. Control of vocal-tract length in speech. J. Acoust. Soc. Am. 62:998-1002 [Medline] [ISI]

Riordan CJ. 1977. スピーチの音声の地域の長さの制御。 J. Acoust. 社会. Am. 62:998-1002 [Medline] [ISI]

Rosch EH. 1978. Principles of categorization. In Cognition and Categorization, ed. E Rosch, B Lloyd, pp. 28-48. Hillsdale, NJ: Erlbaum

Rosch EH. 1978. 分類の原則. 認知と分類について,教育. E Rosch, B Lloyd, pp. 28-48. Hillsdale, NJ: Erlbaum

Samuel AG, Pitt MA. 2003. Lexical activation (and other factors) can mediate compensation for coarticulation. J. Mem. Lang. 48:416-34 [CrossRef] [ISI]

Samuel AG, Pitt MA. 2003. 語いの活性化(また他の要因)は、共同有節発音に対する代償を解決させることができます。. J. Mem. Lang. 48:416-34 [CrossRef] [ISI]

Simos PG, Diehl RL, Breier JI, Molis MR, Zouridakis G, Papanicolaou AC. 1998. MEG correlates of categorical perception of a voice onset time continuum in humans. Cogn. Brain Res. 7:215-19 [CrossRef] [Medline] [ISI]
有性開示時間

Simos PG, Diehl RL, Breier JI, Molis MR, Zouridakis G, Papanicolaou AC. 1998. MEGは、人間の音声攻撃時間連続に対する絶対的な理解力に相互に関連します。 認知. Brain Res. 7:215-19 [CrossRef] [Medline] [ISI]

Sinex DG, McDonald LP, Mott JB. 1991. Neural correlates of nonmonotonic temporal acuity for voice onset time. J. Acoust. Soc. Am. 90:2441-49 [Medline] [ISI] 有性開始時間

Sinex DG, McDonald LP, Mott JB. 1991. 音声攻撃時の時間に対する単調でない一時的な鋭敏さの神経の関連。 J. Acoust. 社会. Am. 90:2441-49 [Medline] [ISI]

Sparks DW, Kuhl P, Edmonds AE, Gray GP. 1978. Investigating the MESA (Multipoint Electrotactile Speech Aid): the transmission of segmental features of speech. J. Acoust. Soc. Am. 63:246-57 [Medline] [ISI]

Sparks DW, Kuhl P, Edmonds AE, Gray GP. 1978. MESA(多点 電気触覚音声援助)の調査:スピーチの分節の特徴の送信。 J. Acoust. 社会. Am. 63:246-57 [Medline] [ISI]

Stephens JD, Holt LL. 2002. Are context effects in speech perception modulated by visual information? 43rd Annu. Meet. Psychon. Soc., Kansas City, MO .

Stephens JD, Holt LL. 2002. 情況結果は視覚的な情報によって調整された音声知覚にありますか。43rd Annu. Meet. Psychon. Soc., Kansas City, MO .

Stevens KN, Klatt DH. 1974. Role of formant transitions in the voiced-voiceless distinction for stops. J. Acoust. Soc. Am. 55:653-59 [Medline] [ISI]

Stevens KN, Klatt DH. 1974. 閉鎖音に対する有音無音の区別いおけるフォルマント遷移の役割。 J. Acoust. 社会. Am. 55:653-59 [Medline] [ISI]

Summerfield Q. 1981. On articulatory rate and perceptual constancy in phonetic perception. J. Exp. Psychol.: Hum. Percept. Perform. 7:1074-95 [CrossRef] [Medline] [ISI]

Summerfield Q. 1981. 音声の知覚中の発生の割合および知覚不変性について。J. Exp. 心理学.: Hum. 認知. Perform. 7:1074-95 [CrossRef] [Medline] [ISI]

Sussman HM, Fruchter D, Hilbert J, Sirosh J. 1998. Linear correlates in the speech signal: the orderly output constraint. Behav. Brain Sci. 21:241-99 [CrossRef] [Medline] [ISI]

Sussman HM, Fruchter D, Hilbert J, Sirosh J. 1998. 線形、スピーチ信号の中で相互に関連する:整然とした出力強制。 Behav. 脳科学. 21:241-99 [CrossRef] [Medline] [ISI]

Sussman JE, Lauckner -Morano VJ. 1995. Further tests of the "perceptual magnet effect" in the perception of [i]: identification and change-no-change discrimination. J. Acoust. Soc. Am. 97:539-52 [Medline] [ISI]

Sussman JE, Lauckner -Morano VJ. 1995. [i]に対する理解力中の「知覚磁石結果」の詳細なテスト:弁別および変更無変更弁別。 J. Acoust. 社会. Am. 97:539-52 [Medline] [ISI]

Ullman S. 1984. Maximizing rigidity: the incremental recovery of 3-D structure from rigid and nonrigid motion. Perception 13:255-74 [Medline] [ISI]

Ullman S. 1984. 厳格を最大限にすること:厳密で柔軟な運動からの3D構造のますます増加する回復。認知 13:255-74 [Medline] [ISI]

Werker JF, Gilbert JHV, Humphrey K, Tees RC. 1981. Developmental aspects of cross-language speech perception. Child Dev. 52:349-53 [Medline] [ISI]

Werker JF, Tees RC. 1984. クロス言語のスピーチ知覚の発展的な様相。 幼児行動発達. 7:49-63 [ISI]

Werner LA, Bargones JY. 1992. Psychoacoustic development of human infants. In Advances in Infancy Research, ed. C Rovee-Collier, L Lipsitt, 7:103-45. Norwood, NJ: Ablex

Werner LA, Bargones JY. 1992. 人間の幼児の音響心理学の開発。幼時研究の進歩の中で, 教育. C Rovee-Collier, L Lipsitt, 7:103-45. Norwood, NJ: Ablex

Williams L. 1977. The perception of stop consonant voicing by Spanish-English bilinguals. Percept. Psychophys. 21:289-97 [ISI]

Williams L. 1977. スペインと英語のバイリンガル達によって言葉に表す閉鎖子音に対する理解力。 Percept. Psychophys. 21:289-97 [ISI]