Error
  • JUser::_load: Unable to load user with id: 69

Sábado, 29 de Enero de 2011 21:23

Tablet PC

Un Tablet PC es una computadora portátil en el que se puede interactuar a través de una pantalla táctil o Multitáctil, el usuario, puede utilizar una pluma stylus para trabajar con el ordenador sin necesidad de teclado físico, o mouse. Se trata, a fin de cuentas, de un dispositivo a medio camino entre el teléfono móvil y el portátil. Esta modalidad de computadora portátil ha supuesto un avance significativo en la aplicación de los estudios en lingüística computacional.

Existen modelos que sólo aportan la pantalla táctil a modo de pizarra, siendo así muy ligeros. También hay ordenadores portátiles con teclado y mouse, llamados convertibles, que permiten rotar la pantalla y colocarla como si de una pizarra se tratase, para su uso como Tablet PC. El concepto de 'tableta' no es nuevo, Microsoft trató de popularizarlo ya en el año 2001 y Apple intentó llevarlo al mercado a finales del siglo pasado sin obtener éxito. Las tabletas informáticas son, ante todo, un dispositivo de acceso a la Red, un competidor para los netbook.

Las tabletas permiten realizar varias tareas simultáneamente, un alto rendimiento multimedia y una navegación por internet continua y sin riesgos. Pero un inconveniente de las tabletas es están enfocadas para el entretenimiento y navegación por internet. No estan hechos para desarrolladores, como por ejemplo, un programador o un gamer. La tableta que ha revolucionado el mercado ha sido el iPad de Apple (creada por Steve Jobs), pero a ésta le están siguiendo muchas otras como la Play Book de BlackBerry, el Kindle de Amazon, o la Galaxy de Samsung.

Sábado, 29 de Enero de 2011 21:21

Surface

Este producto fue anunciado el 30 de mayo de 2007 y fue lanzado al mercado en noviembre de 2007. Esta tecnología es resultado de la combinación entre software con hardware. La idea del producto fue inicialmente conceptualizada en octubre de 2001 por Steven Bathiche de Microsoft Hardware y Andy Wilson de Microsoft Research, que lideraron un equipo virtual para llevar la idea al siguiente paso del desarrollo.

En el 2003, el equipo presentó la idea al Microsoft Chairman Bill Gates. Más tarde, el equipo virtual fue expandido y un prototipo llamado T1 fue producido en un mes. El prototipo estaba basado en una mesa IKEA con un corte de agujero en la parte superior y una hoja de vitela arquitectónica usada como difusor. También desarrollaron algunas aplicaciones, incluyendo pinball, un navegador de fotos y un rompecabezas de video. En el año siguiente, Microsoft construyó más de 85 prototipos, el diseño de hardware final se realizó en el 2005.

Surface fue presentado por el CEO de Microsoft Steve Ballmer el 29 de mayo del 2007 en la conferencia The Wall Street Journal´s D: All Things Digital en Carlsbad, California. Surface Computing es parte del Microsoft's Productivity and Extended Consumer Experiences Group, el cual es parte de la división de Entretenimiento y Aparatos. Los primeros clientes, fueron hoteles, tiendas, restaurantes y lugares de entretenimiento tales como Harrah´s Entertainment, Starwood Hotels y Resorts Worldwide, T-Mobile y el distribuidor, International Game Technology.

Surface también permite reconocer objetos físicos que incorporen sencillos códigos de identificación. Esto significa que cuando un usuario pone una copa sobre Surface, el restaurante puede proporcionarle a través de la pantalla información del vino que están bebiendo, imágenes de la viña de donde proviene y sugerencias sobre la comida adecuada para acompañar al vino. La experiencia puede ser totalmente inmersiva, permitiendo que los comensales puedan buscar hoteles o comprar billetes de avión sin abandonar la mesa.

Surface posee una pantalla de 30 pulgadas empotrado en una mesa de dimensiones de 56 cm de alto, 53 cm de profundidad y 108 cm de ancho. La parte superior de Surface es deacrílico y su marco interior está revestido de polvo de acero. Requiere un enchufe Americano Estándar de 100-120 V. El software corre bajo Windows Vista y posee conexiones Ethernet 10/100, wireless  802.11 b/g y Bluetooth 2.0.

Sábado, 29 de Enero de 2011 21:20

Subwoofer

El subwoofer es un tipo de altavoz activo de una sola vía que complementa a los altavoces de dos vías. Este altavoz reproduce los sonidos que oscilan normalmente entre los 20Hz hasta los 200Hz. Aunque estos intervalos pueden variar dependiendo del uso que se le vaya a dar. Cuanto más profesional, más bajo será el intervalo de frecuecias. Fue inventado en la década de los 60 por Ken Kreisel, presidente de Miller & Kreisel Sound Corporation en Los Ángeles. Su nombre se deriva de "sub" cuyo significado es bajo y "woofer" que significa ladrador.

En la actualidad encontramos el subwoofer análogico y el digital, que se empieza a abrir paso en el mercado. Incluye multitud de ventajas ya que permiten ajustes en la frecuencia a la hora de realizar la respuesta, y también se puede regular la fase para encontrar la mejor sonoridad posible en una sala. El subwoofer se define como un altavoz activo, aunque además existe el pasivo. La diferencia está en que el subwoofer activo tiene un amplificador incorporado.

Un observador no puede localizar la fuente de los sonidos que produce este dispositivo ya que las longitudes de onda en el aire de las frecuencias que produce son varias decenas de veces el diámetro del subwoofer. No hace falta reproducir los sonidos en más de un canal. Además, la sala en la que se reproducen estos sonidos tiene un papel fundamental. Según Floyd E. Toole, la sala es la principal responsable de lo que se escucha hasta casi las cinco primeras octavas del total de diez que forman el espectro de audiofrecuencias. Por lo tanto, es tan importante el buen funcionamiento del dispositivo como su localización en la sala.

Sábado, 29 de Enero de 2011 21:19

SSD (Unidad de estado sólido)

Una Unidad de Estado Sólido o SSD (solid-state drive) es un dispositivo de almacenamiento de datos que usa memoria no volátil tales como flash, o memoria volátil como la SDRAM, para almacenar datos, en lugar de los platos giratorios magnéticos encontrados en los discos duros convencionales.
Un SSD está compuesto principalmente por:
- Controladora (procesador)
- Caché (memoria)
- Condesador (almacenar datos temporalmente en caso de perdida de corriente)
Su rendimiento se incrementan añadiendo chips NAND Flash en paralelo.

-- Ventajas e Inconvenientes --

· Estos discos presentan una serie de ventajas frente a los tradicionales discos mecánicos:

- Alta velocidad de escritura y lectura
- Baja latencia de lectura y escritura
- Lanzamiento y arranque de aplicaciones en menor tiempo
- Arranque más rápido, al no tener platos
- Menor consumo de energía
- Se calientan menos
- Sin ruido
- Menor peso y tamaño que un disco duro tradicional de similar capacidad.
- Es más resistente a caídas y golpes debido a que no tiene elementos mecánicos
- En este video se puede ver la gran diferencia que existe en cuanto a rendimiento:
http://www.youtube.com/watch?v=pJMGAdpCLVg


· Pero a su vez presenta una serie de desventajas:

- Los precios de las memorias flash son considerablemente más altos en relación Precio/GB, la principal razón de su baja demanda. Sin embargo, ésta no es una desventaja técnica.
- Después de un fallo mecánico los datos son completamente perdidos pues la celda es destruida, mientras que en un disco duro normal que sufre daño mecánico los datos son frecuentemente recuperables usando ayuda de expertos.
- A día de hoy, tienen menor capacidad máxima que la de un disco duro convencional, que llega a superar los 2 Terabytes.



-- Actualidad --
Con la llegada del sistema operativo "Windows 7", se ha optimizado el uso de este tipo de sistema de almacenamiento, el SSD, al hacerle plenamente compatible e incluso mejorar su rendimiento.
Actualmente el precio del Gb en SSD es de alrededor 1,60€/gb, frente al precio de los discos duros tradicionales que es de 0,30€/gb, lo que hace que no salga tan rentable comprarse uno, a no ser que su uso sea meramente para el sistema operativo, ya que con adquirir uno de pequeña capacidad valdría.

-- Futuro --
Los SSD son el futuro de los sistemas de almacenamiento,q ue si bien ahora no son tan populares, en cuanto comience a bajar sus costes de fabricación y en consecuencia su venta al publico, se convertirá en los proximos años en el sistema estándar de almacenamiento.

Sábado, 29 de Enero de 2011 21:18

Sonómetro

El sonómetro es un equipo que permite cuantificar objetivamente el nivel de presión sonora. A finales de los años 30 los ingenieros de la Bell Telephone Company en New Jersey (EE.UU.) crearon este sistema de medición gracias a las curvas desarrolladas por Fletcher & Munson (estas curvas calculan la relación existente entre la frecuencia y la intensidad en decibelios) . Un artículo destacado en el New York Times el 27 de abril de 1932, describe como el sonómetro fue usado en "Rigoletto" en la Metropolitan Opera House. Paralelamente en Alemania, la empresa Bruël & Kjaer también desarrolló su propio sitema de medición. El sonómetro mide el nivel de ruido que existe en un determinado lugar y en un momento dado. En esencia se compone de un elemento sensor primario (micrófono), circuítos de conversión, manipulación y transmisión de variables (módulo de procesamiento electrónico ) y un elemento de presentación o unidad de lectura. La unidad con la que trabaja el sonómetro es el decibelio. La IEC (Comisión Electrotécnica Internacional), establecen las normas que han de seguir los fabricantes de sonómetros. Se intenta que todas las marcas y modelos ofrezcan una misma medición ante un sonido dado. Puede ser de clase 0, 1, 2, 3. Depende de la precisión buscada en las mediciones y del uso que se requiera del instrumento: · Clase 0: se utiliza en laboratorios. Sirve como referencia. · Clase 1: empleo en mediciones de precisión en el terreno. · Clase 2: utilización en mediciones generales de campo. · Clase 3: empleado para realizar reconocimientos. Mediciones aproximadas. Las clases empleadas son la 1 y la 2, ya que la norma IEC 61.672 elimina el resto de clases. Dependiendo de la circuitería electrónica empleada, el sonómetro puede realizar diversas funciones, como seleccionar distintos rangos dinámicos para conseguir una buena relación señal-ruido. Otro tipo de sonómetros nos permite cambiar la curva de ponderación que va a ser usada (integradores), así como hacer una ponderación en el tiempo, la velocidad con la que son tomadas las muestras.

Sábado, 29 de Enero de 2011 21:18

Sónar


El sonar significa “navegacion por sonido” (Sound Navigation And Ranging), es un aparato que se usa para detectar submarinos, minas y cualquier objeto o masa sumergidos como bancos de peces así también es posible con ayuda del sonar y peresentando los resultados en una pantalla conocer el relieve de los fondos marinos. La deteccción se lleva a cabo mediante la emisión de vibraciones que son reflejadas por los objetos a localizar. El sonar sustituye al radar ya que las ondas que usa el radar son electromagnéticas y debido a la alta conductividad del medio acuático se pierden sin lograr su objetivo.


El sonar se creó por la necesidad de disponer de un aparato eficaz para la lucha antisubmarina, antes de su invención se usaban los hidrófonos que detectaban las señales y ruidos emitidas por los objetos a localizar pero los submarinos, si navegaban en silencio resultaba difícil o imposible localizarles, esto podía ser navegando a muy baja velocidad y a mucha profuncidad.
Sobre 1917 en plena I Guerra Mundial se empezó a experimentar con este sistema de localización pero la I Guerra Mundial terminó antes de que el nuevo sistema de localización estuviese listo.
Durante el periodo entreguerras el sonar fue alcanzando grandes progresos y los británicos confiando en que el sonar sería un arma eficaz en la lucha antisubmarina. Los británicos creían que el sonar anularía su efectividad cosa que con el tiempo se vio que no ocurriría así y que costaría miles de vidas de marinos mercantes y todo porque la guerra comenzó antes de que el sistema fuera dominado perfectamente por los operadores, porque el sistema no era tan infalible como se pensaba y no todos los buques de escolta iban equipados con él, además de que no había suficientes escoltas ni una táctica antisubmarina preconcebida. Así los submarinos alemanes fueron causa de grandes pérdidas de buques mercantes aliados durante la primera mitad de la guerra.
Las características del sonar fueron con el tiempo aprovechadas para la comunicación submarina, detección de fondos rocosos y como sondador para levantar cartas del relieve submarino.
Como funciona el sonar

El funcionamiento es parecido al del radar. El proyector es la parte que se encagar de emitir bajo el agua un cono estrecho de energía ultrasonora, que son emitidas por medio de impulsos cortos cada cierto tiempo.

Esa energía se propaga a una velocidad de unos 1500 m/s horizontalmente, y si choca con un obstáculo se reflejan las ondas en forma de eco y vulven hasta el proyector que las recibe.

Dicho eco es amplificado y transformado en una señal audible, que cronometrado el tiempo transcurrido entre emisión y recepción dan la distancia al objeto o blanco submarino el valor de dicha distancia viene dado por la fórmula D = V.t / 2 de las cuales V es la velocidad de propagación de las ondas ultrasonoras en el agua de mar y t el tiempo cronometrado entre emisión y recepción. El sonar tiene un dispositivo que resuelve directamente la fórmula y presenta el resultado de forma directa. En cuanto a la dirección que se encuentra el blanco viene determinada por medio de la dirección de la radiación y la posición que ocupa el proyector que se indica en un círculo graduado que se mueve de un modo sincronizado con el proyector. Los modernos sonares disponen de un sistema semejante al PPI de los radares en el cual se pueden ver las posiciones del buque propio y las de los obstáculos o blancos.
Una de las ventajas del sonar es que se puede utilizar como hidrófono suprimiendo la emisión de ondas ultrasonoras, y todo ruido submarino es detectado por el proyector, amplificado y transformado en señal audible, la procedencia de los sonidos es aquella en la cual se reciben con más fuerza con una posición determinada del proyector.

Tipos: Activo y pasivo.

El sónar activo manda una señal mediante un emisor. Esa señal al encontrar un obstaculo rebota y es recogida otra vez por el emisor. Mediante el analisis de tiempos se puede establecer, conocida la celeridad del sonido en el medio, donde esta el obstaculo. Mediante haces de sondas se puede hoy en dia conocer la forma del mismo e incluso su composicion, teniendo en cuenta cuanta señal es absorbida y cuanta devuelta.

El sónar Pasivo se limita a escuchar el sonido que proviene de los objetos que se encuentran sumergidos. Estos dispositivos reciben directamente el ruido producido por el objeto y el camino que recorre la onda es la distancia existente entre el objeto y el receptor del ruido.

El funcionamiento de gran parte de las sondas empleadas en batimetría se basa en el principio de funcionamiento del sónar.

Sábado, 29 de Enero de 2011 21:16

SMS (Servicio de Mensajes Cortos)

Un SMS es una cadena de 160 caracteres (según el estándar GSM) de 7 bits, el cual incluye una serie de parámetros. Aunque su uso principal es ser enviados y recibidos conteniendo un texto normal, existen extensiones del protocolo básico que permiten incluir otros tipos de contenido; como darles formato (comprender imágenes y sonidos de poco tamaño) o encadenar varios SMS´s para conseguir una mayor extensión del texto contenido.

La creación o el desarrollo del SMS no está claramente definida en cuanto a su "inventor", y mientras algunos se inclinan por una colaboración entre Alemania y Francia liderada por Friedhelm Hillebrand, Bernard Ghillebaert y Oculy Silaban, ya que fueron ellos los creadores del estándar GSM que utiliza el SMS como soporte, se reconoce a Matti Makkonen, ingeniero eléctrico, como el inventor, ya que en el año 2008 le fue otorgado el Premio a la Innovación como inventor del mismo.

Al principio los SMS´s eran utilizados por las operadoras de red para informar a los usuarios, pero estos no podían enviarlos. A este tipo de mensajes se les denominó (en inglés) MT-SM (Mobile Terminated-Short Message). Sin embargo, al tiempo, la empresa finesa Nokia desarrolló un sistema que permitía la comunicación bidireccional por SMS; los mensajes enviados por los usuarios se denominaron (en inglés) MO-SM (Mobile Originated-Short Message). Los mensajes de texto se procesan por un SMSC (Short Message Service Center) encargado de almacenarlos hasta que sean enviados, y de conectar con el resto de elementos de la red GSM.

En la transición emisor-destinatario, se incluye en el SMS un cuerpo de mensaje con parámetros como; la fecha del envío y la recepción, la validez del mismo, los números telefónicos del emisor y el receptor, y el número del SMSC que lo originó; para asegurar el correcto procesamiento en el SMSC. Como los SMS´s tienen un tamaño muy pequeño, no es necesaria la asignación de un canal de radio al usuario, se insertan en la información de señalización de la red en time-slots, y pueden ser trasmitidos al instante. El SMSC se introdujo con el fin de administrar correctamente los SMS´s, se encarga de: la recepción y el almacenamiento de los SMS´s hasta poder ser enviados; la verificación de los permisos del usuario para enviar los mensajes; verificar la operatividad del destinatario, consultando al VLR de destino, enviando el mensaje si está disponible, y si no, guardándolo temporalmente hasta poder ser enviado; y también comprobar el estado de los usuarios con SMS´s pendientes.

Debido a la extensión limitada de los SMS´s, los usuarios (sobre todos los jóvenes) han optado por abreviar el texto que desean enviar, con el fin de ahorrar costes. Actualmente abreviar los SMS´s es algo completamente difundido y aceptado tanto que ha formado un nuevo lenguaje, creando incluso diccionarios para aquellas personas que no lo conocen. Aunque este lenguaje es particular, dado que cada uno abrevia según le parece, hay una gran cantidad de abreviaturas comunes, pero que en definitiva tiene como objetivo decir lo máximo posible escribiendo lo mínimo. Existen aplicaciones de texto predictivo, como 'T9' pero debido a su mayor dificultad de uso no es muy requerido.

En los últimos años los SMS´s son utilizados para multitud de avisos, aparte de conversaciones, también para notificaciones de transferencias bancarias, compras, eventos, etc. Incluso es utilizado con fines lucrativos para la participación en sorteos en las cadenas de televisión, y en acceso a determinados servicios web en algunas páginas de Internet.

Sin duda el SMS ha sido un invento que ha revolucionado las Tecnologías de la Información y las Comunicaciones.

Sábado, 29 de Enero de 2011 21:10

Smartphone


Un Smartphone es un dispositivo móvil en el que se han integrado las características de un teléfono móvil con otras funciones similares a las de un ordenador personal. La palabra Smartphone, que en español significa teléfono inteligente, es un término comercial usado para denominar a este tipo de dispositivos, cada vez más usados.

El primer teléfono inteligente fue diseñado en 1992 por IBM y se le llamó Simón. Era un teléfono móvil que, entre otras características, contenía una libreta de direcciones, calendario, correo electrónico y enviaba y recibía FAX. En vez de usar botones físicos para marcar, se seleccionaban los contactos en una pantalla táctil con el dedo o con un stylus. Después en 1996, Nokia lanzó al mercado el Nokia 9210, el cual se consideró como el primer teléfono inteligente con sistema operativo. En el año 2001 Nokia anunció su modelo 7650, al que los medios de comunicación definieron como “smart phone” cuyo término se utiliza ahora en nuestros días para definir a esta línea de dispositivos. Este tipo de dispositivos empezaron a hacerse populares cuando Microsoft anunció su primer sistema operativo para móviles en el año 2002 llamado “Microsoft Windows Powered Smartphone 2002”.

En la actualidad existen diferentes sistemas operativos para los Smartphone, el “iPhone OS”, Windows Mobile, Android, Symbian y RIM son posiblemente los más utilizados. Esto ha hecho que exista una gran demanda de software para estos sistemas operativos, e incluso creando portales específicos para descargar estos programas, como Market de Android o el AppStore de Mac.

Hoy en día gracias al desarrollo de las redes de telefonía móvil con las red 3G y próximamente 4G nos ha acercado cada vez más a este tipo de dispositivos al posibilitarnos la visualización de páginas web , contenido multimedia y la interacción con las redes sociales.

Sábado, 29 de Enero de 2011 21:02

Sistema PAL

Pal (Phase Alternating Line/ línea de fase alternada) es un sistema de codificación usado para transmitir señales de televisión analógica a color. Otros sistemas son el NTSC y el SECAM. El sistema PAL deriva del NTSC,aunque resultó mejor en comparación con este último sistema.
http://en.wikipedia.org/wiki/File:PAL-NTSC-SECAM.svg

En PAL, también conocido por 576i, se utiliza un sistema de exploración de 625 líneas totales y 576 líneas activas, pues 49 líneas se utilizan para el borrado. En NTSC, también conocido por 480i, se utiliza un sistema de exploración de 525 líneas totales y 480 líneas activas (las que se restituyen en pantalla), pues 45 líneas, que no son visibles, se utilizan para el borrado. Debido a que el cerebro puede resolver menos información de la que existe realmente, podemos hablar de la "relación de utilización" o "factor de Kell", que se define como la razón entre la resolución subjetiva y la resolución objetiva. El factor de Kell para sistemas entrelazados como PAL y NTSC vale 0,7 (para sistemas progresivos vale 0,9). Entonces, tanto en PAL como NTSC tenemos que:
Resolución subjetiva / Resolución objetiva = 0,7
La resolución objetiva de PAL es 576 líneas, mientras que la de NTSC es de 480 líneas. De esta manera, en PAL tenemos una resolución subjetiva de 403,2 líneas; mientras que en NTSC se perciben 336 líneas. Por tanto, PAL ofrece una resolución subjetiva y objetiva de un 20% superior a NTSC

En cuanto a su creador, Dr. Walter Bruch, cabe decir que fue un ingeniero alemán que ingresó en el departamento de investigación de Televisión y Física de la compañía Telefunken ( http://en.wikipedia.org/wiki/Telefunken ). Por otro lado pudo probar en los Juegos Olímpicos de 1963 la primara cámara iconoscópica que él mismo había contribuido a desarrollar ( http://uv201.com/Tube_Pages/iconoscopes.htm ).
En 1950 fue encargado por Telefunken a desarrollar los primeros receptores de televisión de posguerra. Algún tiempo después estudió y experimentó el sistema NTSC, al igual que el sistema SECAM. Gracias a esto, pudo concebir un nuevo sistema que se fundamentaba en la corrección automática de todas las distorsiones del color que pueden producirse a lo largo del canal de transmisión.
El 3 de enero de 1963 realizó la primera demostración pública de su Phase Alternation Line System, en Hannover, ante una asamblea de expertos de la Unión Radiofónica Europea. Esa fecha puede considerarse como el nacimiento del sistema PAL-Telefunken, que posteriormente fue adoptado por más de treinta países de todo el mundo (en la actualidad lo utilizan más de cien países). Como anécdota, en una entrevista de Hans Rosenthal , Bruch declaró que no quiso nombrar el nuevo sistema con su nombre, ya que pensó que a ningún alemán le hubiera gustado comprar el "Bruch-System" ( traducido sería "sistema Roto").


El nombre "phase alternating line" (en español línea alternada en fase) hace referencia al modo en que la información de crominancia (color) de la señal de vídeo es transmitida, siendo invertida en fase en cada línea, permitiendo la corrección automática de los posibles errores en fase al cancelarse entre sí. En la transmisión de datos por radiofrecuencia, los errores de fase son comunes y se deben a retardos de la señal en su llegada o procesado. Los errores de fase en la transmisión de vídeo analógico provocan un error en el tono del color, afectando negativamente a la calidad de la imagen.

El sistema PAL es analógico. Hubo un intento de fabricar equipos que digitalizasen la señal PAL en los años 80, pero no tuvo ningún éxito comercial y ahora son una rareza. En los dispositivos digitales, como televisión digital, videoconsolas modernas, computadoras, etc., se utilizan sistemas en componentes de color donde se transmiten por tres cables diferentes las señales R, G y B o bien Y (luminancia), R-Y y B-Y (diferencia de color). En estos casos sólo se tiene en cuenta el número de líneas 625 / 525 y la frecuencia de cuadros 25 / 30. Mención aparte merecen los sistemas basados en el estándar MPEG-2, como el DVD y la televisión por satélite, televisión por cable, o la televisión digital terrestre (TDT); pero es otro sistema de televisión que no tiene prácticamente nada que ver con el PAL.

Sábado, 29 de Enero de 2011 20:52

Sistema de televisión NTSC


NTSC fue el primer sistema de codificación y transmisión de televisión analógica en color que respetaba la doble compatibilidad con la televisión monocroma. En la actualidad, es utilizado en Norteamérica, en todos los países de Sudamérica excepto Brasil y Argentina, y en otros como Birmania, Corea del Sur, Taiwán, Japón, Filipinas y algunas islas del Pacífico. En el resto del mundo, los sistemas utilizados son el PAL y el SECAM, incompatibles entre sí y con el NTSC.

Sus siglas, National Television System Committee, también representan el nombre del organismo estadounidense de normalización establecido en 1940 por la Federal Communications Commission para solventar las rivalidades que habían nacido entre empresas por la introducción de un sistema analógico de escala nacional de televisión en EEUU. En 1941, dicho Comité publicó un sistema de codificación para la televisión en blanco y negro, el cual fue construido a partir de una recomendación hecha en 1936 por la Radio Manufacturers Association.

En 1950, el Comité fue reunido nuevamente para desarrollar un nuevo sistema de codificación, esta vez para la televisión en color. El requisito fundamental de este sistema era la compatibilidad con los televisores en blanco y negro ya existentes; nació así el sistema NTSC de color.

Aunque la FCC ya había aprobado en 1950 otro sistema de codificación del color diferente, este estándar era incompatible con los televisores en blanco y negro, por lo que fue rápidamente sustituido por el NTSC a partir de diciembre de 1953. La primera emisión a escala nacional con este sistema tuvo lugar un mes después, con la difusión del “Tournament of Roses Parade”, que sólo podía ser vista en receptores de color especiales.

Sin embargo, con la llegada de la televisión digital, las difusiones analógicas están siendo progresivamente retiradas y sustituidas por las digitales.

El NTSC consiste en la transmisión de 29.97 cuadros entrelazados de vídeo por segundo; cada cuadro se compone de 525 líneas horizontales, de las cuales 486 conforman la trama visible, con hasta 648 píxeles cada una. Utiliza una banda útil de 4.25 MHz, que se traduce en una resolución de unas 270 líneas verticales. Para garantizar la compatibilidad con el sistema en blanco y negro, el NTSC de color mantiene la señal monocromática de blanco y negro como componente de luminancia de la imagen en color.

En cuanto a sus inconvenientes, los problemas de transmisión e interferencia disminuyen la calidad de la imagen. Esto hace imprescindible incluir un control de tinte, que no es necesario en los sistemas PAL o SECAM. Otra de sus desventajas es su limitada resolución, la más baja de todos los sistemas de televisión, lo que da lugar a una imagen de calidad inferior a la que es posible enviar en el mismo ancho de banda con otros sistemas.

En cuanto a dispositivos digitales, ya no hay diferencia entre sistemas, quedando el significado de NTSC reducido a 480 líneas horizontales con una tasa de refresco de 29,97 imágenes por segundo, o el doble en cuadros por segundo para imágenes entrelazadas.

Página 11 de 53

Patrocinadores

 

Fotografía ganadora sphera 2012

 

Galería

Flickr + Highslide encountered an error

Error: SSL is required