Lingüística Y Matemáticas

  • Uploaded by: Eduardo Rodriguez
  • 0
  • 0
  • June 2020
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View Lingüística Y Matemáticas as PDF for free.

More details

  • Words: 661
  • Pages: 19
LINGÜÍSTICA Y MATEMÁTICAS

• Es aquella parte de la lingüística que sirve de métodos matemáticos y surgió a finales de los años cincuenta y comienzo de los sesenta.

• Algunos métodos matemáticos se habían empleado en la lingüística en la antigüedad; eran sin embargo, exclusivamente los métodos que hoy en día podrían designarse como cuantitativos.

COMIENZO DE LA LINGÜÍSTICA CUANTITATIVA Y EL CONCEPTO DE

FRECUENCIA

• Ciertos indicios del empleo de los métodos cuantitativos pueden encontrarse ya en la India antigua. • En 1847 V. J Bunrakowki llamo la atención sobre la posibilidad de aprovechar los métodos matemáticos en la lingüística.

• Fue el matemático y físico Agustín Seydler quien empleo, ya en 1886 el calculo de probabilidad. • W. D Whitney fue el primero entre los lingüistas que se ocupo de los fenómenos cuantitativos de la lengua.

EL PROCESO DE MARKOV Y LA TEORÍA DE LA

PROBABILIDAD

• Markov publico su ejemplo de la investigación estadística, de texto de E. Oniegin y fue este trabajo que despertó el interés de los matemáticos por los problemas lingüísticos. • Markov examino, con ayuda de métodos estadísticos, la frecuencia

de las consonantes y vocales, su estudio comenzó una nueva era dentro de las matemáticas, donde se desarrollaría la teoría de la probabilidad. • El proceso de Markov se considera el primer ejemplo de la aplicación de la estadística en la lingüística.

LAS LEYES DE ZIPF

• La primera ley de zipf tenia un precursor y varios adversarios

• La segunda ley se refiere a la relación que hay entre la frecuencia de la palabra y el numero de palabras diferentes que tengan esta misma frecuencia.

• La tercera ley se refiere ala relación que hay entre la frecuencia de la palabra y el numero de sus significado.

DICCIONARIOS DE FRECUENCIA

• Los diccionarios de frecuencia aparecen en varias lenguas ya desde unos decenios.

• Los DF nuevos tienen una extensión de 500.000 y 1.500.00palabras, en los mas antiguos alcanzo excepcionalmente hasta 11.000.000 de palabras. • Uno de los DF mas antiguos del ingles es el que L.P Ayrens en 1915 con

368.000 palabras. • Los DF de las lenguas románicas., los mas conocidos e interesantes son los que publico A. Juilland con varios colaboradores en la Haya. • Entre los DF especializados: el que fue elaborado por un colectivo y dedicado ala lengua de A.S Pushkin.

EJEMPLOS DE RELACIONES CUANTITATIVAS EN LA LENGUA

• Al ordenar las palabras según su frecuencia obtenemos 3 zonas de palabras con frecuencia.

• La primer zona suelen clasificarse las diez primeras palabras de mayor frecuencia. • La zona central esta delimitada por los limites de las zonas vecinas. • La tercer zona son las palabras de menor frecuencia, suelen comprender una gran cantidad de palabras que tienen una frecuencia entre 10 y 1.

GLOTOCRONOLOGÍA

• A comienzos de los años cincuenta apareció una nueva disciplina lingüística denominada glotocronología o lexicoestadistica.

• El objetivo de la glotocronología consiste en verificar con ayuda de los métodos cuantitativos • El método fue propuesto en 1950 por Morris Swadesh.

ORÍGENES Y NOCIONES BÁSICAS DE LA TEORÍA DE

LA INFORMACIÓN

• A finales de los años cuarenta y comienzo de los cincuenta se formaron dentro de las matemáticas dos disciplinas: la teoría de la comunicación y teoría de la información. • Las principales ideas de las dos disciplinas fueron formuladas por Claude Elwood y por Warren Weawer.

• La teoría de la comunicación es parte formal de la transmisión de las informaciones. • La teoría de la información, por el contrario, estudia la información misma.

ENTROPÍA, REDUNDANCIA, BIT Y RUIDO

• La entropía es la que designa la cantidad de información en una señal o signo comunicativo.

• Bit es el elemento mínimo de la información, sirve para medirla. • La redundancia, por el contrario, es igual a cero, por ser absolutamente imposible adivinar el elemento siguiente. • El ruido es la interferencia que puede ocurrir durante la transmisión de la información.

Related Documents

Y
November 2019 73
Y
July 2020 44
Y
November 2019 83
Y
November 2019 86
Y
October 2019 88
Y
December 2019 68

More Documents from ""