miércoles, 27 de marzo de 2013

NFC vs Bluetooth



Con el avance de la tecnología, los nuevos estándares rápidamente sustituyen a los anteriores, en una constante evolución que siempre busca alcanzar la satisfacción de los usuarios y el logro de tareas de la manera más rápida y simple que se pueda. Dos de las tecnologías actuales en transmisión de datos de corto alcance que gozan de gran popularidad son NFC (Near Field Communication, por sus siglas en inglés) y Bluetooth. En esta ocasión trataremos de explicar las principales diferencias entre ambas tecnologías y también indicar sus usos principales.
Es importante tener en cuenta que no se trata del hecho que una tecnología sea mejor que la otra, sino que cada una cumple una misión específica y tiene tanto ventajas como desventajas.
En el siguiente cuadro podremos apreciar en resumen las características principales tanto de la tecnología NFCcomo de Bluetooth en su versión 2.1:
nfc vs bluetooth a
Básicamente, NFC cuenta con un menor rango de alcance, pero a su vez presenta un mejor tiempo para establecer una conexión de datos. Esto quiere decir que es la recomendada para transmitir pequeños paquetes de datos en distancias cortas. Por esta razón es que se utiliza la tecnología NFC para operaciones de pagos con tarjetas, como aquellas usadas en los terminales de buses y trenes. Simplemente es necesario colocar la tarjeta NFC frente al dispositivo y la transferencia de datos se efectuará casi al instante. Otro uso es para los recientes equipos de manos libres, los cuales solo con colocar frente al smartphone, son rápidamente reconocidos.
Por otro lado, la tecnología Bluetooth tiene como ventaja su largo alcance (30 metros), una mayor velocidad de datos y mayor seguridad. Esta se utiliza para transmitir datos entre una PC y un smartphone, o para jugar entre dos equipos que se encuentran en habitaciones separadas. La desventaja es que toma casi seis segundos en establecer la conexión, haciendo poco práctico su uso para un intercambio de datos rápido en un momento inicial.
De esta manera podemos ver que estas tecnologías tienen propósitos diferentes y se desempeñan mejor en cada uno de sus campos. Como dato, podemos añadir que el reciente Bluetooth V4.0 cuenta con la característicaBluetooth Low Energy (BLE), lo cual reduce el tiempo de establecimiento de conexión y trata de alcanzar las ventajas de NFC, pero todavía está en etapa de introducción.
                                                                                                                                   Fuente: wikipedia 
Near field communication (NFC):
Near field communication (NFC) -en español Comunicación de Campo Cercano- es una tecnología de comunicación inalámbrica, de corto alcance y alta frecuencia que permite el intercambio de datos entre dispositivos. Los estándares de NFC cubren protocolos de comunicación y formatos de intercambio de datos, y están basados en ISO 14443 (RFID, radio-frequency identification) y FeliCa.1 Los estándares incluyen ISO/IEC 180922 y los definidos por el NFC Forum, fundado en 2004 por NokiaPhilips y Sony, y que hoy suma más de 160 miembros.
Funcionamiento:
Como en ISO 14443, NFC se comunica mediante inducción en un campo magnético, en donde dos antenas de espira son colocadas dentro de sus respectivos campos cercanos. Trabaja en la banda de los 13,56 MHz, esto hace que no se aplique ninguna restricción y no requiera ninguna licencia para su uso.
Soporta dos modos de funcionamiento, todos los dispositivos del estándar NFCIP-1 deben soportar ambos modos:
  • Activo: ambos dispositivos generan su propio campo electromagnético, que utilizarán para transmitir sus datos.
  • Pasivo: sólo un dispositivo genera el campo electromagnético y el otro se aprovecha de la modulación de la carga para poder transferir los datos. El iniciador de la comunicación es el encargado de generar el campo electromagnético.
El protocolo NFCIP-1 puede funcionar a diversas velocidades como 106, 212, 424 o 848 Kbit/s. Según el entorno en el que se trabaje, las dos partes pueden ponerse de acuerdo de a que velocidad trabajar y reajustar el parámetro en cualquier instante de la comunicación.
                                                                                                                                   Fuente: wikipedia

Bluetooth:
Bluetooth es una especificación industrial para Redes Inalámbricas de Área Personal (WPAN) que posibilita la transmisión de voz y datos entre diferentes dispositivos mediante un enlace por radiofrecuenciaen la banda ISM de los 2,4 GHz. Los principales objetivos que se pretenden conseguir con esta norma son:
  • Facilitar las comunicaciones entre equipos móviles y fijos.
  • Eliminar los cables y conectores entre éstos.
  • Ofrecer la posibilidad de crear pequeñas redes inalámbricas y facilitar la sincronización de datos entre equipos personales.
Los dispositivos que con mayor frecuencia utilizan esta tecnología pertenecen a sectores de las telecomunicaciones y la informáticapersonal, como PDAteléfonos móvilescomputadoras portátilesordenadores personalesimpresoras o cámaras digitales.
Nombre y Logo:
El nombre procede del rey danés y noruego Harald Blåtand, cuya traducción al inglés es Harald Bluetooth, conocido por unificar las tribus noruegas, suecas y danesas y por convertirlos al cristianismo. La idea de este nombre fue propuesto por Jim Kardach que desarrolló un sistema que permitiría a los teléfonos móviles comunicarse con los ordenadores y unificar la comunicación de los sistemas digitales.
El logo de Bluetooth son las runas de las iniciales del nombre y el apellido. Runic letter ior.svg la (Hagall) y la Runic letter berkanan.svg (Berkana).
Usos y Aplicaciones: 
Se denomina Bluetooth al protocolo de comunicaciones diseñado especialmente para dispositivos de bajo consumo, que requieren corto alcance de emisión y basados en transceptores de bajo costo.
Los dispositivos que incorporan este protocolo pueden comunicarse entre ellos cuando se encuentran dentro de su alcance. Las comunicaciones se realizan por radiofrecuencia de forma que los dispositivos no tienen que estar alineados y pueden incluso estar en habitaciones separadas si la potencia de transmisión es suficiente. Estos dispositivos se clasifican como "Clase 1", "Clase 2" o "Clase 3" en referencia a su potencia de transmisión, siendo totalmente compatibles los dispositivos de una clase con los de las otras.
ClasePotencia máxima permitida
(mW)
Potencia máxima permitida
(dBm)
Alcance
(aproximado)
Clase 1100 mW20 dBm~100 metros
Clase 22.5 mW4 dBm~10 metros
Clase 31 mW0 dBm~1 metro
En la mayoría de los casos, la cobertura efectiva de un dispositivo de clase 2 se extiende cuando se conecta a un transceptor de clase 1. Esto es así gracias a la mayor sensibilidad y potencia de transmisión del dispositivo de clase 1, es decir, la mayor potencia de transmisión del dispositivo de clase 1 permite que la señal llegue con energía suficiente hasta el de clase 2. Por otra parte la mayor sensibilidad del dispositivo de clase 1 permite recibir la señal del otro pese a ser más débil.
Los dispositivos con Bluetooth también pueden clasificarse según su ancho de banda:
VersiónAncho de banda
Versión 1.2Mbit/s
Versión 2.0 + EDRMbit/s
Versión 3.0 + HS24 Mbit/s
Versión 4.024 Mbit/s
                                                                                                                                   Fuente: wikipedia






sábado, 23 de marzo de 2013

iPad Mini



iPad Mini es el dispositivo tipo tablet de la compañía estadounidense Apple Inc. Lanzado junto con el iPad de cuarta generación o iPad con tecnología LTE el 23 de octubre 2012 para USA y otros países de Europa. El tablet reducido de Apple posee una pantalla de 7.9 pulgadas, buscando ser un dispositivo de mejor transporte que su hermano mayor, el iPad 4, de tamaño muy próximo al de un libro. Integra como CPU un chip A5 (dual-core, el mismo que el iPad 2), así como una cámara FaceTime con 1.2 MP (cámara frontal), una cámara iSight con grabación de vídeo HD real de 1080p y con 5MP (cámara trasera), tecnología de redes móviles 4GLTE, y más de 275,000 Apps listas para descargar desde la App Store debido a que tiene la misma resolución que el iPad 2, 1.024x768 pixeles con una densidad de 163ppp (pixeles por pulgada).
Este iPad, como el resto de su gama, posee una alta calidad de materiales de construcción, siendo su cubierta trasera de aluminio y su batería de polímeros de litio.
Otro de los aciertos del diseño de este modelo que comparte con su hermano menor el iPhone, es la disposición magistral de sus altavoces, puesto que no quedan solapados al apoyar el dispositivo en una superficie plana. Es el primer iPad que dispone de dos altavoces; el resto, llevan uno.
El iPad Mini incluye el sistema operativo iOS 6. También viene acompañado de Siri, el asistente virtual de voz de Apple.




monitor monocromo



Un monitor monocromo es un tipo de monitor de ordenador que fue muy común en los inicios de la computación, desde la década de los 60 a la de los 80, antes de que los monitores de color fuesen populares. Aún siguen utilizándose en algunos sistemas computarizados de cajas registradoras, entre otras aplicaciones.
Al contrario que los monitores de color, que visualizan texto y gráficos en múltiples colores a través del uso de intensidades alternativas de fósforos rojos, verdes y azules, los monitores monocromos sólo tienen un color de fósforo (mono = uno, cromo = color).
Por dicho motivo eran conocidos también como «monitor» o «pantalla de fósforo». Todos los textos y gráficos se visualizan en ese color. Algunos monitores tienen la capacidad de variar el brillo de píxels individuales, creando de ese modo la ilusión de profundidad y color, exactamente igual que un televisor en blanco y negro.
Los monitores monocromos están disponibles en tres colores: si se usa el fósforo P1, la pantalla es monocroma verde. Si se usa el fósforo P3, la pantalla es monocroma ámbar.
Si se usa el fósforo P4, la pantalla es monocroma blanca, éste es el mismo fósforo usado en los primeros televisores. Se ha dicho que las pantallas ámbar son mejores ergonómicamente, específicamente reduciendo la vista cansada, pero estas afirmaciones parece que tienen poco fundamento científico.
Los monitores monocromos, pixel por pixel, producen texto e imágenes más definidas que los monitores CRT de color. Esto es porque en un monitor monocromo, cada pixel se crea a partir de un punto de fósforo, localizado en el centro del pixel, mientras que en un monitor a color, cada pixel se crea a partir de tres puntos de fósforo (uno rojo, otro azul y otro verde), y ninguno de ellos está en el centro del pixel.
Los monitores monocromos se usaron en casi todos los terminales y siguen usándose ampliamente en aplicaciones basadas en texto como máquinas registradoras computarizadas y sistemas de punto de venta debido a su mayor definición y su mayor legibilidad.
El problema de los monitores monocromo es su facilidad de quemado de pantalla (de aquí el uso y nombre de los salvapantallas) debido al hecho de que los fósforos usados son de intensidad muy alta.
Otro efecto de la alta intensidad de los fósforos es el denominado como "ghosting", donde una luminiscencia de los contenidos de la pantalla se puede seguir viendo después de que la pantalla se haya borrado. Esto tiene un cierto lugar en la cultura popular, como se evidencia en varias películas como Matrix.

pantalla 3D



Una pantalla 3D o pantalla tridimensional es una pantalla de video que reproduce escenas tridimensionales y poder mostrarlas como imágenes 3D por ejemplo, en la televisión 3D. Hay dos sistemas destacados para visualizar contenidos 3D: estereoscópicos y autoestereoscópicos. Los primeros necesitan unas gafas especiales, mientras que los otros permiten disfrutar de la sensación 3D sin ningún tipo de complementos.
El sistema visual humano es un sistema binocular, es decir, disponemos de dos sensores (ojos) que, debido a su separación horizontal, reciben dos imágenes de una misma escena con puntos de vista diferentes. Mediante estas dos vistas el cerebro crea una sensación espacial. 

Monitor de fósforo verde



Monitor de fósforo verde era el nombre dado a los monitores de ordenador CRT monocromo tipo que utiliza una pantalla de fósforo verde "P1". Tuvieron éxito con teletipos y terminales de tubos de rayos catódicos de color precedieron como dispositivo de salida visual predominante para las computadoras. Eran abundantes en los mediados de 1980, junto con los monitores de color ámbar (P3).
El monitor de fósforo verde es sin duda el más famoso vídeo monocromo PC original de IBM, el IBM 5151 (el propio PC tenía el número de modelo 5150). Desde el principio, el 5151 ha sido diseñado para trabajar con la tarjeta de vídeo MDA (sólo texto) PC, pero pronto el Hércules tarjeta gráfica producida por terceros se ha convertido en una compañía popular para monitorear 5151 debido a la capacidad de Hércules monocromático pantalla de mapa de bits gráficos, a menudo utilizado para la presentación de gráficos de negocios generados, por ejemplo, por como hoja de cálculo Lotus 1-2-3.
Algunos monitores de fósforo verde se les proporcionó una cobertura especial intensidad de fósforo, por lo que los personajes muy claro y bien definido (y por lo tanto fácil de leer), pero generando un efecto de persistencia algo inquietante de brillo (a veces llamada "imagen fantasma") cuando el texto se desplaza por la pantalla o cuando una pantalla de información fue rápidamente reemplazado por otro en las operaciones de subir y bajar la pantalla en el procesamiento de texto.

El Monitor



El monitor es el principal dispositivo de salida de un computador personal, es decir, nos permite visualizar tanto la información introducida por el usuario como la devuelta por la computadora. 
La tecnología en este periférico ha evolucionado mucho desde la aparición de los computadores personales con monitores de fósforo verde hasta los últimos modelos LCD y de Plasma, pero de manera mucho más lenta que otros componentes, como pueden ser microprocesadores, placas base, etc.
Las características de éstos también han evolucionado según las nuevas necesidades de los usuarios, como han sido el diseño asistido por ordenador (CAD/CAM) o el aumento del tiempo de estancia delante de la pantalla, que se han solventado aumentando el tamaño de la pantalla y la calidad de la visión.
El sistema gráfico del computador está compuesto por dos elementos: el monitor y la tarjeta gráfica. El elevado número de marcas y modelos del mercado puede suponer un auténtico problema a la hora de elegir los componentes apropiados a sus necesidades. El enorme éxito de los computadores portátiles ha hecho que las pantallas de cristal líquido se hayan convertido en opciones realmente validas. Pero, ¿realmente son asequibles para el usuario de a pie? Y es que, los precios de una pantalla plana de buena calidad son todavía excesivamente altos comparados con los de un monitor CRT convencional que ofrezca el mismo tamaño de diagonal. Por eso, muchos usuarios profesionales que necesitan resoluciones múltiples y una salida de colores brillantes. Sin embargo, lenta pero inexorablemente, las pantallas planas están ganando terreno, reducen sus precios y se aprestan a competir por una incipiente cuota de mercado.
Las compañías fabricantes de estos dispositivos están en constante investigación de nuevas tecnologías que proporcionen al usuario unas condiciones de trabajo más confortables y con menos efectos negativos para la salud, sin descuidar, como no, algo que está muy de moda: el diseño, tamaño y resolución
Por supuesto, el ganador lo dirá el tiempo, pero todo apunta a que los mastodontes monitores CRT terminarán por ser piezas de museo. Evidentemente, no sólo por cuestión de tamaño, un monitor plano ocupa menos de un tercio del espacio de un CRT y pesa bastante menos (lo que le da mayor movilidad); sino también porque consumen mucha menos energía y carecen de los problemas de convergencia, de enfoque o de geometría que tienen los monitores de tubo catódico. Además, su nitidez saca mayor partido a las altas resoluciones.

viernes, 1 de marzo de 2013

1ra Tarea del libro


1.       Que es alfabetización tecnológica
2.       Cual es la diferencia entre dato y data.
3.       Que es información
4.       Que es sistema
5.       Que es un computador
6.       Que es informática
7.       De algunos ejemplo de informática
8.       Que es GIS        
9.       Que es SI
10.   Que es SE
11.   Cual es el URL  de la universidad
12.   Cuales fueron las empresas dominicana que impulsaron la informática en RD
13.   Como se llama el personaje que trajo a oym la carrera de informática
14.   Hacer cuadro comparativo de cada uno de los personajes: con el nombre, que invento, que profesión tenia, de que país era.
15.   Cual fue la primera computadora que funciono  a la perfección.
16.   Quien es el padre y la madre de la informática.
17.   Como se compone un computador
18.   Cuantos tipos de computadores existen
19.   Que significa ordenador
20.   Cual es el tipo del computador mas utilizado en hoy dia.

2DA tarea para investigar


Inteligencia artificial distribuida


La Inteligencia artificial distribuida es un campo de la IA dedicado al estudio de las técnicas y el conocimiento necesario para la coordinación y distribución del conocimiento y las acciones en un entorno con múltiples agentes.
Podemos distinguir dos áreas principales de desarrollo:
1. Solución cooperativa de problemas distribuidos (SCPD): Estudia como unos conjuntos de módulos (o nodos) cooperan para dividir y compartir el conocimiento de un problema y en el desarrollo de la solución.
2. Sistemas multiagentes (SMA): Estudia la coordinación de la conducta inteligente entre un conjunto de agentes inteligentes autónomos.
La principal diferencia entre ambas áreas estriba en la flexibilidad de la coordinación entre los agentes. En la SCPD, las interacciones y tareas que cada agente realiza, están prefijadas de antemano: hay un plan centralizado de resolución de problemas. Suele haber un miembro que ejerce un control global que centraliza los resultados parciales y datos entre el resto de los componentes del sistema. En contraposición en los SMA, los agentes tienen un grado de autonomía mayor y pueden decidir dinámicamente que interacciones son adecuadas, que tareas deben realizar, quien realiza cada tarea y, además, es posible mantener conocimiento que no es globalmente consistente, incluso los agentes pueden mantener objetivos globales diferentes. Esta definición permite distinguir entre sistemas que se centran en el comportamiento global, con una conducta fija de los agentes (SCPD) y sistemas que se centran en la conducta de los individuos que como resultado, obtenían una conducta del sistema (SMA). Vista como una sociedad, seria escoger entre un estado que planifica y regula las conductas de los individuos (que serán predecibles) o dejar que el sistema se resuelva por la libre iniciativa de los individuos.
Los problemas básicos que estudia la IAD y que son comunes a todos los sistemas son:
1. Como formular, describir, descomponer y asignar problemas y sintentetizar los resultados entre un grupo de agentes inteligentes.
2. Como capacitar a los agentes para que se comuniquen e interactuen: que lenguajes de comunicación o protocolos deben utilizarse, que y cuando deben comunicarse, etc.
3. Como asegurar que los agentes actúen coherentemente al tomar decisiones o realizar acciones, como acomodar los efectos globales de las decisiones locales y prevenir interacciones no deseadas.
4. Como capacitar a los agentes para representar y razonar sobre acciones, planes y conocimientos de otros agentes para coordinarse; como razonar sobre el estado de su proceso de coordinación (inicio o terminación).
5. Como reconocer y reconciliar puntos de vista e intenciones conflictivas entre un conjunto de agentes para coordinar sus acciones; como sintetizar los puntos de vista y los resultados.
6. Como utilizar técnicas ingenieriles y desarrollar sistemas con IAD. Como desarrollar plataformas de SMA y metodologias de desarrollo con tenias de IAD.
TEORIA DEL CAOS



       La teoría de las estructuras disipativas, conocida también como teoría del caos, tiene como principal representante al químico belga Ilya Prigogine, y plantea que el mundo no sigue estrictamente el modelo del reloj, previsible y determinado, sino que tiene aspectos caóticos. El observador no es quien crea la inestabilidad o la imprevisibilidad con su ignorancia: ellas existen de por sí, y un ejemplo típico el clima. Los procesos de la realidad dependen de un enorme conjunto de circunstancias inciertas, que determinan por ejemplo que cualquier pequeña variación en un punto del planeta, genere en los próximos días o semanas un efecto considerable en el otro extremo de la tierra. La idea de caos en la psicología y en el lenguaje.

1.Efecto mariposa y caos matemático.- Empezaremos con la parte anecdótica de la teoría del caos, el famoso "efecto mariposa" Es decir, comenzaremos a investigar el iceberg a partir de su punta visible que, como sabemos, es apenas una mínima fracción del total.
En principio, las relaciones entre causas y efectos pueden examinarse desde dos puntos de vista: cualitativo y cuantitativo.

2. Causa-efecto: relaciones cuantitativas.- Si examinamos las posibles relaciones cuantitativas que pueden existir entre causas y efectos, las alternativas podrían ser las siguientes:
1) Causas y efectos son razonablemente proporcionales: pequeñas causas producen pequeños efectos, y grandes causas grandes efectos (como cuando decimos que, dentro de cierto espectro de variabilidad, cuanto mayor es la frustración mayor será la respuesta agresiva, siendo ambas variaciones razonablemente proporcionales); 2) Una causa pequeña produce un gran efecto (como cuando un comentario intrascendente desata una crisis psicótica); 3) Una causa grande produce un pequeño efecto (como cuando una interpretación nuclear que apunte directamente al conflicto patógeno infantil, genera una respuesta indiferente en el paciente).

3. Causas pequeñas, grandes efectos.- El sentido común prescribe una cierta proporción entre la causa y el efecto: una fuerza pequeña produce un movimiento pequeño, y una fuerza grande, un gran desplazamiento. El psicoanálisis invoca la misma idea para justificar la idea de que una terapia breve produce pequeños cambios, y de que un tratamiento prolongado genera cambios más importantes.
Sin embargo, ciertas experiencias cotidianas y determinados planteos científicos nos obligan a considerar la posibilidad de algunas excepciones de aquellas impresiones subjetivas que habitan nuestra mente de físicos o psicólogos aficionados, tan acostumbrada a transitar la siempre útil, pero también la siempre peligrosa navaja de Occam, que todo lo simplifica. 

SISTEMA DIFUSO


Su estructura está constituida por tres bloques principales: el de transformación de los valores numéricos en valores de Lógica difusa; el motor de inferencia que emplea las reglas; y el bloque de conversión de los valores de la Lógica difusa en valores numéricos.

En un sistema basado en lógica difusa se transforman los datos o valores numéricos de la entrada al dominio de las reglas intuitivas y lingüísticas de la LD para realizar el tratamiento de los mismos y después convertir los resultados en valores numéricos para darles la representación tradicional.

Después de casi cuarenta años de desarrollo, los sistemas difusos han mostrado su capacidad para resolver los problema que surgen en diferentes dominios de los investigadores en mejorar las capacidades de aprendizaje y adaptación de los sistemas difuso. Desde que se publicaron los primeros trabajos, que se remotan a 1991, uno de los enfoques de más éxito para combinar los sistemas difusos con métodos de aprendizaje y adaptación, aparte de las redes neuronales difusas, ha dado a los llamados sistema difusos evolutivos (SDEs). Estas técnicas hibridas de la inteligencia computacional mejoran el proceso de razonamiento aproximativa de los sistemas difusos mediante las capacidades de aprendizaje de los algoritmos evolutivos.

Losa SDEs han suscitado una considerable atención en la comunidad científica dedicada a la inteligencia computacional en los últimos años. El tipo predominante de SDE se centra en el caso particular de los sistemas basados en reglas difusas (SBRDs). Sin embargo, también se han propuesto otros tipos de SDEs con resultados exitosos.

En resumen, puede decirse que un sistema basado en lógica difusa actúa como lo haría una persona que tuviera que reaccionar ante términos tan imprecisos como “caluroso” o “rápido”
Si al sistema se le incluye una regla que diga “Si la temperatura es calurosa se ha de acelerar el ventilador”, se estará aplicando el principio de If/Then y el sistema funcionará sin regirse por conceptos matemáticos precisos.



Holografía

La holografía es una técnica avanzada de fotografía que consiste en crear imágenes tridimensionales. Para esto se utiliza un rayo láser que graba microscópicamente una película fotosensible. Ésta, al recibir la luz desde la perspectiva adecuada, proyecta una imagen en tres dimensiones.
La holografía fue inventada en el año 1947 por el físico húngaro Dennis Gabor, que recibió por esto el Premio Nobel de Física en 1971. Recibió la patente GB685286 por su invención. Sin embargo, se perfeccionó años más tarde con el desarrollo del láser, pues los hologramas de Gabor eran muy primitivos a causa de las fuentes de luz tan pobres que se utilizaban en sus tiempos.
Originalmente, Gabor sólo quería encontrar una manera para mejorar la resolución y definición de las imágenes del microscopio electrónico. Llamó a este proceso «holografía», del griego «holos», «completo», ya que los hologramas mostraban un objeto completamente y no sólo una perspectiva.
Los primeros hologramas que verdaderamente representaban un objeto tridimensional bien definido fueron hechos por Emmett Leith y Juris Upatnieks en Estados Unidos, en 1963, y por Yuri Denisyuk en la Unión Soviética. Uno de los avances más prometedores hechos recientemente ha sido su uso para los reproductores de DVD y otras aplicaciones. También se utiliza actualmente en tarjetas de crédito, billetes y discos compactos, además de su uso como símbolo de originalidad y seguridad.
El concepto de holograma puede aplicarse a todo aquello que represente la imagen completa de algo, por eso es que la astrología “es” holográfica. 
Tal como la utilizamos corrientemente, la holografía es una técnica que sin usar ningún tipo de lentes crea imágenes tridimensionales. Un rayo láser graba microscópicamente una película fotosensible y ésta, al recibir la luz desde la perspectiva adecuada, proyecta una imagen en tres dimensiones.
Pero si lo vemos con cuidado, no es verdad que el holograma contenga la información de toda la escena. En realidad, cada fragmento del holograma contiene la información de toda la escena vista desde el lugar donde el observador estaba. 
De esta manera apreciamos la importancia que tiene la posición en el espacio del ser al que se le levanta una carta natal, pues la domificación establece el ángulo de incidencia de las diversas “frecuencias energéticas”.
La mayoría de los astrólogos en algún momento de su quehacer se da cuenta que diferentes rasgos de la carta natal se repiten en varios niveles, como distintas cosas que hablan de lo mismo, remitiendo a una imagen holográfica. Diferentes técnicas traen diferente información, pero esa información tiene similaridades que apuntan a la carta natal como un todo. Las progresiones simbólicas, por ejemplo, relacionan el movimiento diario de un planeta con una dimensión mayor, el año. Un día transcurrido es un año transcurrido. La Luna progresada es sincrónica al tránsito de Saturno. Cada signo, cada planeta, tienen sentido en tanto parte de una totalidad; sería un error entenderlos individualmente.
La tradición hindú divide generalmente a los signos en 2, 3, 4, 5, 6, 7, 8 y 9 partes iguales o shodasavargas. En Occidente los armónicos se trabajan hasta el 12; es decir, cada signo estará dividido en 12 secciones, por lo tanto dentro de cada signo existen los doce signos. En la parte está el todo.


Transistores ópticos


Un transistor óptico es divulgado. El transistor óptico consiste en una región de foto detector de alta velocidad a la modulación de la región que separa una región de drenaje y el origen de una intensidad de la luz incidente. El transistor óptico divulgado es capaz de exhibir el rendimiento de alta velocidad con aislamiento de buena señal y la amplificación alta ganancia.

Lo que se afirma es:

1. Un transistor óptico fabricado en un sustrato que incluye: una región de modulador de la intensidad de la luz; y una región de director de orquesta de foto incidente a región de modulador de intensidad de la luz para el control de la región de modulador de dicha intensidad de la luz, en el cual región de modulador de dicha intensidad de la luz comprende múltiples quantum wells, dijo.

2. Un transistor óptico fabricado en un sustrato que incluye: una región de modulador de la intensidad de la luz; y una región de director de orquesta de foto a la región de modulador de dicha intensidad de la luz para el control de la región de modulador de dicha intensidad de la luz incidente. un incidente de luz de control en la región de director de orquesta de dicha foto; y un entrada luz incidente en dicho primer terminal, en el cual región de modulador de dicha intensidad de la luz está separada por un primer terminal dispuestos en una superficie de dicho sustrato y una segunda terminal eliminados en otra superficie de dicho sustrato.

3. El transistor óptico de reclamación 2, aún más que comprende: una luz de salida que emanan de dice segunda terminal.

4. El transistor óptico de reclamar 2 integrado además por: una segunda región de director de orquesta de foto incidente a la región del Director de orquesta de dicha foto.

5. El transistor óptico de reclamación 4 en donde las regiones de director de orquesta de dicha foto abarcan la entrada de operadores de lógica.

6. El transistor óptico de reclamación 5 en donde dicha segunda terminal comprenden los operadores de lógica de salida.

Un transistor electrónico es el bloque básico de la creación de circuitos de lógica de equipo de hoy. Transistores utilizan una corriente eléctrica o voltaje de campo para amplificar otra tensión actual o campo eléctrico, creación de pulsos electrónicos que pueden representar los unos y ceros de computación binaria. En el ámbito de la óptico, los transistores pueden funcionar más allá de las operaciones de lógica óptico en chips ópticos o la computación óptica, en áreas de redes de telecomunicaciones. Tecnología de transistor óptico podría utilizarse para la comunicación de fibra óptica, óptico de conmutación y enrutamiento y conversión de longitud de onda.

Redes de telecomunicaciones se han ampliado considerablemente en los últimos decenios. Aunque la mayoría de las llamadas, si el transporte de voz (llamadas telefónicas) o datos, han usado durante mucho tiempo líneas telefónicas estándar, que tienen una tasa de bits bajas, la formidable expansión de la Internet y otras redes de datos, ya sea en el sector público o privado, desde mediados de los años ochenta ha llevado a una enorme demanda de ancho de banda. Hacer frente a este aumento exponencial de la cantidad de información para ser transportados, y que se refiere a todos los tipos de medios de comunicación, es decir, tanto para voz como para datos, tales como el correo electrónico (E-mail), texto y foto transferencia, vídeo de distribución de archivos y, lo más importante, el uso masivo de Internet y la World Wide Web (WWW), las nuevas tecnologías han tenido que ser desarrollado, como la transmisión por medios eléctricos (metales líneas, cobre) ha demostrado ser demasiado limitado en rendimiento a grandes distancias.

Al menos en la medida en que se refiere a la base de estas redes, transmisión ahora es en su mayoría a través de fibras ópticas a velocidades de bits muy alto. El tipo de cambio de datos, o bits de información, habitualmente se mide en gigabits por segundo. Esto significa que mil millones de bits puede ser intercambiadas cada segundo sobre una línea de Gbit/s 1. En la práctica, existan normas internacionales para estandarizar la transmisión y para la interconexión de equipos. La más extendida de estas normas es el estándar SONET (red óptica sincrónica). El estándar de SONET es principalmente un estándar norteamericano, y su homólogo Europeo es el estándar SDH (jerarquía Digital sincrónica). Estas normas son en su mayor parte mutuamente compatibles y estandarización las velocidades de transmisión de 2,48 Gbit/s (SONET OC-48), 10 Gbit/s (SONET OC-192) y 40 Gbit/s (SONET OC-768).

Aunque el equipo de comunicación ahora se comunica a través de una red de fibras ópticas, que puede ser muy extensa y cubrir una ciudad o un país y puede incluir transmisión Intercontinental, y lleva pulsos de luz que generalmente se obtuvieron desde un emisor de luz coherente (láser), sigue siendo el caso de que el equipo de comunicación propio todavía esencialmente se basa en tecnologías eléctricas y los circuitos periféricos que constituyen el equipo deben ser capaces de ser una interfaz de forma eficiente y a bajo costo a los dispositivos de envío y recepción de señales de luz una interfaz a las fibras ópticas.