Richmond H. Thomason
Versión 1 preparada: 1 de diciembre de 1996
Versión 2 (revisiones menores): 27 de marzo de 2012
Derechos de autor, Richmond H. Thomason, 1996
Se admiten comentarios: Envíe sus comentarios a [email protected]
Explicación: Este documento es un intento de hacer inteligible un área de investigación arcana y poco comprendida para alguien que no sepa lógica ni lingüística. Fue escrito originalmente para una enciclopedia que quería algo accesible incluso para un público preescolar. Pero no aparece en ninguna enciclopedia, porque yo no estaba dispuesto a escribir algo según las especificaciones de los editores, y ellos no estaban dispuestos a cambiar sus especificaciones. Este episodio es un ejemplo más de lo mal que lo han hecho los semanticistas a la hora de concienciar, incluso a los profanos bien informados, de cuáles son los problemas en este campo.
La semántica es el estudio del significado de las expresiones lingüísticas. Puede tratarse de una lengua natural, como el inglés o el navajo, o de una lengua artificial, como un lenguaje de programación informática. El significado en las lenguas naturales lo estudian principalmente los lingüistas. De hecho, la semántica es una de las principales ramas de la lingüística contemporánea. Los informáticos teóricos y los lógicos estudian los lenguajes artificiales. En algunas áreas de la informática, estas divisiones se cruzan. En la traducción automática, por ejemplo, los informáticos pueden querer relacionar textos en lenguaje natural con representaciones abstractas de sus significados; para ello, tienen que diseñar lenguajes artificiales para representar significados.
Existen fuertes conexiones con la filosofía. A principios de este siglo, los filósofos trabajaron mucho en semántica, y todavía siguen haciéndolo.
Cualquiera que hable una lengua tiene una capacidad realmente asombrosa para razonar sobre el significado de los textos. Tomemos, por ejemplo, la frase
(S) No puedo deshacer ese nudo con una mano.
Aunque probablemente nunca hayas visto esta frase, puedes ver fácilmente cosas como las siguientes:
- La frase trata de las capacidades de quien la ha dicho o escrito. (Llama a esta persona el hablante).
- También trata de un nudo, tal vez uno que el hablante está señalando.
- La frase niega que el hablante tenga cierta capacidad. (Esta es la aportación de la palabra 'can't'.)
- Desatar es una forma de hacer que algo no esté atado.
- La frase no significa que el nudo tenga una mano; tiene que ver con cuántas manos se utilizan para hacer el desatado.
El significado de una frase no es sólo un montón desordenado de los significados de sus palabras. Si eso fuera cierto, "Los vaqueros montan a caballo" y "Los caballos montan a los vaqueros" significarían lo mismo. Así que tenemos que pensar en la ordenación de los significados.
He aquí una disposición que parece poner de manifiesto las relaciones entre los significados de la frase (S).
No [ Yo [ Capaz [ [ [Hacer [No [Atado]]] [Ese nudo]]] [Con una mano] ] ] ]
La unidad [Hacer [No [Atado]] corresponde aquí al acto de desatar; contiene una subunidad correspondiente al estado de estar desatado. Las unidades más grandes corresponden al acto de desatar ese nudo y al acto de desatar ese nudo con una mano. A continuación, este acto se combina con Capaz para formar una unidad mayor, correspondiente al estado de ser capaz de desatar ese nudo con una mano. Esta unidad se combina con Yo para formar el pensamiento de que tengo este estado, es decir, el pensamiento de que soy capaz de desatar ese nudo con una mano. Finalmente, esto se combina con No y obtenemos la negación de ese pensamiento.
Esta idea de que las unidades significativas se combinan sistemáticamente para formar unidades significativas mayores, y de que entender las frases es una forma de resolver estas combinaciones, ha sido probablemente el tema más importante de la semántica contemporánea.
Los lingüistas que estudian la semántica buscan reglas generales que pongan de manifiesto la relación entre la forma, que es la disposición observada de las palabras en las frases, y el significado. Esto es interesante y desafiante, porque estas relaciones son muy complejas.
Una regla semántica para el inglés podría decir que una frase simple que incluya la palabra "can't" (no puedo) siempre corresponde a una disposición de significado como la siguiente
No [ Capaz ... ],
pero nunca a una como
Capaz [ No ... ].
Por ejemplo, "No puedo bailar" significa que no puedo bailar; no significa que no pueda bailar.
Para asignar significados a las frases de una lengua, hay que saber cuáles son. Otro campo de la lingüística, la sintaxis, se encarga de responder a esta pregunta proporcionando reglas que muestran cómo se construyen las frases y otras expresiones a partir de partes más pequeñas y, finalmente, a partir de palabras. El significado de una frase depende no sólo de las palabras que contiene, sino también de su estructura sintáctica: la frase
(S) Eso puede hacerte daño
por ejemplo, es ambigua: tiene dos significados distintos. Éstos corresponden a dos estructuras sintácticas distintas. En una estructura, "Eso" es el sujeto y "puede" es un verbo auxiliar (que significa "capaz"), y en la otra "Eso puede" es el sujeto y "puede" es un sustantivo (que indica una especie de contenedor).
Como el significado de una frase depende tanto de su estructura sintáctica, los lingüistas han reflexionado mucho sobre las relaciones entre la estructura sintáctica y el significado; de hecho, las pruebas de ambigüedad son una forma de poner a prueba las ideas sobre la estructura sintáctica.
Cabría esperar que un experto en semántica supiera mucho sobre lo que son los significados. Pero los lingüistas no han respondido directamente a esta pregunta con mucho éxito. Esto puede parecer una mala noticia para la semántica, pero en realidad no es tan raro que los conceptos básicos de una ciencia de éxito sigan siendo problemáticos: un físico probablemente tendrá problemas para decirle qué es el tiempo. La naturaleza del significado, y la naturaleza del tiempo, son cuestiones fundamentales que debaten los filósofos.
Podemos simplificar un poco el problema diciendo que, sean cuales sean los significados, nos interesa el significado literal. A menudo se transmite mucho más que el significado de una frase cuando alguien la utiliza. Supongamos que Carol dice "Tengo que estudiar" en respuesta a "¿Puedes ir al cine esta noche?". Quiere decir que esa noche tiene que estudiar y que por eso no puede ir al cine. Pero la frase que utilizó literalmente sólo significa que tiene que estudiar. Los significados no literales se estudian en la pragmática, un área de la lingüística que se ocupa del discurso y los efectos contextuales.
Pero, ¿qué es un significado literal? Hay cuatro tipos de respuestas: (1) se puede esquivar la pregunta, o (2) apelar al uso, o (3) apelar a la psicología, o (4) tratar los significados como objetos reales.
(1) La primera idea implicaría intentar reconstruir la semántica de modo que pueda hacerse sin referirse realmente a los significados. Resulta difícil hacerlo, al menos si se quiere una teoría que haga lo que a los semanticistas lingüísticos les gustaría que hiciera una teoría. Pero la idea fue popular a principios del siglo XX, especialmente en las décadas de 1940 y 1950, y se ha retomado varias veces desde entonces, porque muchos filósofos preferirían prescindir de los significados si fuera posible. Pero estos intentos tienden a ignorar los requisitos lingüísticos y, por diversas razones técnicas, no han tenido mucho éxito.
(2) Cuando un angloparlante dice "It's raining" y un francófono dice "Il pleut", puede decirse que existe un patrón común de uso. Pero nadie sabe realmente cómo caracterizar lo que tienen en común las dos expresiones sin invocar de algún modo un significado común. (En este caso, el significado de que está lloviendo.) Así que esta idea no parece explicar realmente qué son los significados.
(3) Aquí se trataría de explicar los significados como ideas. Se trata de una idea antigua, que sigue siendo popular; hoy en día, adopta la forma de desarrollar un lenguaje artificial que se supone que capta las "representaciones cognitivas internas" de un agente ideal que piensa y habla. El problema de este planteamiento es que los métodos de la psicología contemporánea no ayudan mucho a saber en general cómo son esas representaciones internas. Esta idea no parece conducir todavía a una metodología que pueda producir una teoría semántica viable.
(4) Si decimos que el significado de "Marte" es un determinado planeta, al menos tenemos una relación de significado con la que podemos lidiar. Por un lado está la palabra "Marte" y, por otro, esa gran bola de materia que gira alrededor del Sol. Esta claridad es buena, pero es difícil ver cómo se puede abarcar todo el lenguaje de esta manera. No nos ayuda mucho a decir qué significan las frases, por ejemplo. ¿Y qué hay del otro significado de "Marte"? ¿Tenemos que creer en el dios romano para decir que "Marte" tiene sentido? ¿Y qué hay de "el mayor número"?
El enfoque que la mayoría de los semanticistas apoyan es una combinación de (1) y (4). Utilizando técnicas similares a las empleadas por los matemáticos, se puede construir un complejo universo de objetos abstractos que pueden servir como significados (o denotaciones) de diversos tipos de expresiones lingüísticas. Dado que las frases pueden ser verdaderas o falsas, los significados de las frases suelen implicar los dos valores de verdad verdadero y falso. Se pueden inventar lenguajes artificiales para hablar de estos objetos; algunos semanticistas afirman que estos lenguajes pueden utilizarse para captar representaciones cognitivas internas. De ser así, esto también incorporaría elementos de (3), el enfoque psicológico de los significados. Por último, al restringir la atención a partes seleccionadas del lenguaje natural, a menudo se pueden evitar preguntas difíciles sobre qué son los significados en general. Por eso, este enfoque esquiva en cierta medida la cuestión general de qué son los significados. La esperanza sería, sin embargo, que a medida que se abarquen más construcciones lingüísticas, surjan mejores y más adecuadas representaciones del significado.
Aunque los "valores de verdad" pueden parecer artificiales como componentes del significado, son muy útiles para hablar del significado de cosas como la negación; la regla semántica de las oraciones negativas dice que sus significados son como los de las oraciones positivas correspondientes, salvo que el valor de verdad se cambia, falso por verdadero y verdadero por falso. No está lloviendo" es verdadera si "Está lloviendo" es falsa, y falsa si "Está lloviendo" es verdadera.
Los valores de verdad también proporcionan una conexión con la validez y el razonamiento válido. (Es válido inferir una frase S2 a partir de S1 en caso de que S1 no pudiera ser verdadera cuando S2 es falsa). Este interés en el razonamiento válido proporciona una fuerte conexión con el trabajo en la semántica de las lenguas artificiales, ya que estas lenguas se diseñan generalmente con alguna tarea de razonamiento en mente. Los lenguajes lógicos están diseñados para modelar razonamientos teóricos, como las pruebas matemáticas, mientras que los lenguajes informáticos están pensados para modelar una gran variedad de tareas de razonamiento generales y especiales. La validez es útil para trabajar con pruebas porque nos proporciona un criterio de corrección. Lo mismo ocurre con los programas informáticos, donde a veces se puede utilizar para demostrar que un programa es correcto o (si la demostración falla) para descubrir fallos en los programas.
Estas ideas (que en realidad proceden de la lógica) han demostrado ser muy poderosas a la hora de proporcionar una teoría sobre cómo los significados de las oraciones del lenguaje natural dependen de los significados de las palabras que contienen y de su estructura sintáctica. En los últimos cuarenta años se ha avanzado mucho en este sentido, no sólo en el caso del inglés, sino de una gran variedad de lenguas. Esto se ve facilitado por el hecho de que las lenguas humanas son muy similares en el tipo de reglas que se necesitan para proyectar significados de palabras a frases; difieren principalmente en sus palabras y en los detalles de sus reglas sintácticas.
Últimamente ha aumentado el interés por la semántica léxica, es decir, por la semántica de las palabras. La semántica léxica no consiste tanto en intentar escribir un "diccionario ideal". (Los diccionarios contienen mucha información útil, pero no proporcionan realmente una teoría del significado ni buenas representaciones de los significados). La semántica léxica se ocupa más bien de las relaciones sistemáticas entre los significados de las palabras y de los patrones recurrentes entre los distintos significados de una misma palabra. No es casualidad, por ejemplo, que se pueda decir "Sam se comió una uva" y "Sam comió", ya que el primero dice lo que Sam comió y el segundo simplemente que Sam comió algo. Lo mismo ocurre con muchos verbos.
La lógica es una ayuda en la semántica léxica, pero ésta está llena de casos en los que los significados dependen sutilmente del contexto, y hay excepciones a muchas generalizaciones. (Socavar algo es minar debajo de ello; pero entender algo no es pararse debajo de ello). Así que la lógica no nos lleva tan lejos aquí como parece llevarnos en la semántica de las oraciones.
La semántica del lenguaje natural es importante para intentar que los ordenadores sean más capaces de tratar directamente con las lenguas humanas. En una aplicación típica, hay un programa que la gente necesita utilizar. Para ejecutarlo, hay que utilizar un lenguaje artificial (normalmente, un lenguaje de comandos o de consulta con fines especiales) que indique al ordenador cómo realizar alguna tarea útil de razonamiento o de respuesta a preguntas. Pero enseñar este lenguaje a todos los que quieran interactuar con el programa es frustrante y lleva mucho tiempo. Por eso, a menudo merece la pena escribir un segundo programa, una interfaz de lenguaje natural, que medie entre las órdenes sencillas en un lenguaje humano y el lenguaje artificial que entiende el ordenador. Aquí, desde luego, no hay confusión sobre lo que es un significado; los significados que se quieren atribuir a los comandos en lenguaje natural son las expresiones correspondientes del lenguaje de programación que entiende la máquina. Muchos informáticos creen que la semántica del lenguaje natural es útil para diseñar programas de este tipo. Pero es sólo una parte del problema. Resulta que la mayoría de las frases en inglés son ambiguas hasta un punto deprimente. (Si una frase tiene sólo cinco palabras, y cada una de estas palabras tiene cuatro significados, sólo esto da potencialmente 1.024 posibles significados combinados). Por lo general, sólo unos pocos de estos significados potenciales son plausibles. La gente es muy buena para centrarse en estos significados plausibles, sin dejarse abrumar por los significados no intencionados. Pero para ello hace falta sentido común, y de momento no sabemos muy bien cómo conseguir que los ordenadores imiten este tipo de sentido común. Los investigadores del área de la informática conocida como Inteligencia Artificial están trabajando en ello. Mientras tanto, al construir interfaces de lenguaje natural, se puede aprovechar el hecho de que una aplicación específica (como recuperar respuestas de una base de datos) limita las cosas que un usuario es probable que diga. Gracias a esto y a otras técnicas ingeniosas, es posible crear interfaces de lenguaje natural para fines específicos que funcionan extraordinariamente bien, aunque todavía estamos muy lejos de descubrir cómo hacer que los ordenadores comprendan el lenguaje natural para fines generales.
Es probable que la semántica no le ayude a averiguar el significado de una palabra que no entiende, aunque tiene mucho que decir sobre los patrones de significado que se encuentran en las palabras. Desde luego, no puede ayudarte a entender el significado de uno de los sonetos de Shakespeare, ya que el significado poético es muy distinto del literal. Pero a medida que aprendemos más sobre semántica, descubrimos muchas cosas sobre cómo las lenguas del mundo relacionan las formas con los significados. Y al hacerlo, estamos aprendiendo mucho sobre nosotros mismos y sobre cómo pensamos, además de adquirir conocimientos útiles en muchos campos y aplicaciones diferentes.
Original article: web.eecs.umich.edu/~rthomaso/documents/general/what-is-semantics.html