|
|
Mesa redonda
Julio Ferrero. Agencia EFE |
|
Los medios españoles no están optimizados en sus aspectos técnicos
para el uso de nuestra lengua
Como sea que en este foro hay comentaristas de TV, radio, cine, voy a enfocar mis palabras
al ámbito de los textos, es decir al uso, por parte de los medios escritos, de la lengua
española.
Les voy a comentar algunos desarrollos fundamentales de las comunicaciones, que por las
razones que fueran, normalmente porque el inventor, o promotor no era español, se
olvidaron de la lingüística española y han tenido consecuencias, que incluso llegan
hasta hoy día que, de alguna forma, dificultan o entorpecen la difusión de nuestro
idioma por los medios de comunicación e información.
Son unos ejemplos de la historia de las telecomunicaciones que por la relevancia del
inventor o invento los hacen significativos, pero hay otros muchos que demuestran las
aseveraciones del enunciado de mi comentario.
El primer sistema de comunicación serio fue el Telégrafo inventado por Samuel Morse en
el siglo XIX en 1832 y no debemos olvidarnos que era americano. Como
todos sabemos se utilizaba por primera vez la energía eléctrica como forma de
comunicación, abriendo y cerrando el circuito por el que circulaba la corriente que
atraía un electroimán, sonando cuando golpeaba en tope. Si el tiempo entre golpes
sucesivos era corto representaba un punto, si era más largo una raya. Morse desarrolló
un código para representar caracteres por series de puntos y rayas. Ya al estudiar el
código tuvo en cuenta el representar las letras, los caracteres más frecuentes, con la
codificación más sencilla. Así representó la letra E con un punto y la T con una raya.
Por supuesto que los estudios elementales de Morse los hizo con la lengua inglesa.
Cuando se dan cuenta que el código Morse era inapropiado para codificar y decodificar por
problemas en que las longitudes de los símbolos codificados fueran distintas, en 1870 un
francés, Dr. Emilio Baudot inventa el famoso código de su nombre que entre otras cosas,
por supuesto, que no pensó en el español y por tanto no incluyó la Ñ. Este
código se usó durante medio siglo.
En los sesenta se desarrollan nuevos códigos siendo el más importante el núm. 2 del
CCITT (Comité Consultivo Internacional de Telegrafía y Telefonía) que todavía
se usa hoy en día en el Télex. Y seguimos sin contemplar nuestra lengua.
Más tarde se desarrolla el ASCII de 7 bits, el cual se utiliza actualmente, que puede
representar 128 caracteres; en su conjunto se incluyen todas las letras del alfabeto
inglés (mayúsculas y minúsculas), los números del 0 al 9, signos de puntuación
n,
varios símbolos. Pero desgraciadamente para el español, y a pesar de haber 128
caracteres no están ni la ñ, ni la ü, ni las vocales acentuadas, ni el
signo de admiración e interrogación de apertura.
Todos nos alarmamos el pasado año cuando por parte de los fabricantes de informática de
la Comunidad Europea se pretendía quitar la letra ñ de los teclados de los
ordenadores.
No era un problema de poner tecla o quitarla de las impresoras sino que, todavía hoy, no
existe un código internacional aceptado por todos que contemple la ñ para las
comunicaciones entre ordenadores.
Podríamos seguir hablando de la evolución de los códigos como por ejemplo EBCDIC de IBM
de 8 bits que no era compatible con nada de lo existente, y de cómo la lengua española
no se ha tenido en cuenta.
A principios de los años cincuenta aparecen los ordenadores, que manejan señales
discretas. Como es sabido una señal digital es una secuencia de valores discretos
y lo
que es lo mismo una sucesión numérica. Una secuencia y todas las operaciones posibles
sobre ella pueden ser tratadas mediante ordenador. Sin embargo una función analógica no
puede ser tratada por ningún computador.
En el año 1949 Claudio Shannon publicó un libro titulado Teoría Matemática de las
Comunicaciones. Este señor tuvo una influencia decisiva en todo el desarrollo del mundo
de la comunicación e información. Definió la información, sus fuentes, la entropía,
la redundancia, etc. Esta Teoría de la Información proporciona una formulación precisa
de gran número de problemas de transmisión. Sus repercusiones alcanzan a la física,
lingüística, psicología, medicina, informática, etc. y uno de sus primeros resultados
prácticos fue el análisis de la redundancia de idiomas y «síntesis» del lenguaje
escrito.
En muchos sistemas de información no se usan todos los símbolos con igual probabilidad
en una comunicación dada. La lengua inglesa es un buen ejemplo. En un mensaje escrito en
inglés es 12 veces más probable que aparezca la letra e que la letra s.
Esta desigualdad en la distribución también es característica de combinaciones
concretas de letras y palabras. Cuando Claudio Shannon desarrolla todas sus teorías
siempre tiene en cuenta la lengua inglesa.
Shannon por ejemplo definió la información, como «todo aquello que a través de
nuestros sentidos llega al cerebro y produce un incremento en nuestro nivel de
conocimientos o determina una reacción». La información reside en el mensaje, que está
formado por elementos de percepción inteligibles para el hombre. También trabajó sobre
la medida de la información, su unidad, la fuente que produce información bajo la
envoltura de un mensaje. Los mensajes pueden ser:
discreto: telegrafía, datos;
analógico: telefonía, radio;
una función del tiempo y variables geométricas: TV
blanco negro;
varias funciones de una o más variables: TV en color, estereofonía.
La Teoría de la Información pretende optimizar el proceso de transmisión, para ello
define el concepto de entropía como incertidumbre o cantidad de desorden de un sistema.
Define también la redundancia como medida de la diferencia entre la cantidad de
información máxima posible para una fuente y la real.
Basándose en todos estos conceptos, Shannon realizó un trabajo logrando resultados
sorprendentes que luego han sido aprovechados para la codificación de fuentes, todo esto
es fundamental, pues Vds. todos los días manejan señales digitales a través de los
ordenadores.
|
|
La codificación de una fuente de información se hace siguiendo dos criterios distintos:
a) Haciendo corresponder a
cada símbolo de la fuente (una letra) una palabra-código de longitud constante.
b) Eligiendo la longitud de las palabras-códigos en función de las probabilidades
de los símbolos de las fuentes.
Toda la moderna teoría de la
codificación y de la compresión de datos está basada en este segundo criterio.
Por ejemplo, la codificación de Huffman genera códigos más cortos para símbolos que
ocurren frecuentemente y códigos más largos para símbolos que ocurren ocasionalmente.
Es decir, a los símbolos con probabilidad alta se les asigna códigos más cortos que los
símbolos que ocurren menos frecuentemente.
Con el uso de la informática se codifica nuestro alfabeto, se manipula, se comprime, etc.
pero siempre con las premisas del idioma inglés que evidentemente no tiene nuestras
reglas.
Es muy difícil en estos días que el desarrollo tecnológico no tenga servidumbres
extranjeras.
Cuando se escribe sobre un hito en el contexto de la electrónica; de la
microelectrónica, de los ordenadores siempre viene del mundo anglosajón, esto es una
factura que hay que pagar y dentro de la misma también va incluida nuestra lengua.
Véanse las estadísticas de utilización
de las letras del alfabeto castellano en textos de noticias de EFE. |
|
|
|

| La lengua española y los
medios de comunicación |
| Portada del CVC |
| Obras de referencia | Actos culturales | Foros | Aula de lengua | Oteador |
| Rinconete | El trujamán |
| Enviar comentarios |
Centro
Virtual Cervantes
© Instituto Cervantes (España), 2003-. Reservados todos los derechos.
|
|