Categorías: Todo - generación - entretenimiento - procesador - videojuegos

por Cesar Augusto Molina hace 3 años

266

tic

Las videoconsolas han evolucionado significativamente desde sus primeras generaciones. Originalmente, los sistemas como la Odyssey 100 y Atari Pong entraron al mercado permitiendo juegos simples y eran limitados en capacidad gráfica y de procesamiento.

tic

tic

Tic en colombia

De todos los elementos que integran las TIC, sin duda el más poderoso y revolucionario es Internet, que nos abre las puertas de una nueva era, la Era Internet, en la que se ubica la actual Sociedad de la Información. Internet nos proporciona un tercer mundo en el que podemos hacer casi todo lo que hacemos en el mundo real y además nos permite desarrollar nuevas actividades.
- Instrumento cognitivo que potencia nuestras capacidades mentales y permite el desarrollo de nuevas maneras de pensar.
- Homogeneización de los códigos empleados para el registro de la información mediante la digitalización de todo tipo de información
- Interactividad.
- Almacenamiento de grandes cantidades de información en pequeños soportes de fácil transporte (pendrives, discos duros portátiles, tarjetas de memoria...).
- Automatización de tareas, mediante la programación de las actividades que queremos que realicen los ordenadores, que constituyen el cerebro y el corazón de todas las TIC. Ésta es una de las características esenciales de los ordenadores, que en definitiva son "máquinas que procesan automáticamente la información siguiendo las instrucciones de unos programas".
- Instrumentos para todo tipo de proceso de datos. Los sistemas informáticos, integrados por ordenadores, periféricos y programas, nos permiten realizar cualquier tipo de proceso de datos de manera rápida y fiable: escritura y copia de textos, cálculos, creación de bases de datos, tratamiento de imágenes... Para ello disponemos de programas especializados.
- Canales de comunicación inmediata, sincrónica y asíncrona, para difundir información y contactar con cualquier persona o institución del mundo mediante la edición y difusión de información en formato web, el correo electrónico, los servicios de mensajería inmediata, los fórums telemáticos, las videoconferencias, los blogs y las wiki...
- Fácil acceso a todo tipo de información, sobre cualquier tema y en cualquier formato (textual, icónico, sonoro), especialmente a través de la televisión e Internet pero también mediante el acceso a las numerosas colecciones de discos en soporte CD-ROM y DVD. La información es la materia prima que necesitamos para crear conocimientos con los que afrontar las problemáticas que se nos van presentando cada día en el trabajo, en el ámbito doméstico, al reflexionar…
Las TIC nos ofrecen la posibilidad de realizar unas funciones que facilitan nuestros trabajos tales:
Las TIC son cambiantes, siguiendo el ritmo de los continuos avances científicos y en un marco de globalización económica y cultural, contribuyen a que los conocimientos sea efímeros y a la continua emergencia de nuevos valores, provocando cambios en nuestras estructuras económicas, sociales y culturales, e incidiendo en casi todos los aspectos de nuestra vida: el acceso al mercado de trabajo, la sanidad, la gestión burocrática, la gestión económica, el diseño industrial y artístico, el ocio, la comunicación, la información, nuestra forma de percibir la realidad y de pensar, la organización de las empresas e instituciones, sus métodos y actividades, la forma de comunicación interpersonal, la calidad de vida, la educación... Su gran impacto en todos los ámbitos de nuestra vida hace cada vez más difícil que podamos actuar eficientemente prescindiendo de ellas.
Las TIC se conciben como el universo de dos conjuntos, representados por las tradicionales Tecnologías de la Comunicación (TIC) - constituidas principalmente por la radio, la televisión y la telefonía convencional - y por las Tecnologías de la información (TI) caracterizadas por la digitalización de las tecnologías de registros de contenidos (informática, de las comunicaciones, telemática y de las interfaces). son herramientas teórico conceptuales, soportes y canales que procesan, almacenan, sintetizan, recuperan y presentan información de la forma más variada. Los soportes han evolucionado en el transcurso del tiempo (telégrafo óptico, teléfono fijo, celulares, televisión) ahora en ésta era podemos hablar de la computadora y de la Internet. El uso de las TIC representa una variación notable en la sociedad y a la larga un cambio en la educación, en las relaciones interpersonales y en la forma de difundir y generar conocimientos.
Por extensión, designan el sector de actividad económica. No son ninguna panacea ni fórmula mágica, pero pueden mejorar la vida de todos los habitantes del planeta. Se disponen de herramientas para llegar a los Objetivos de Desarrollo del Milenio, de instrumentos que harán avanzar la causa de la libertad y la democracia, y de los medios necesarios para propagar los conocimientos y facilitar la comprensión mutua"
Las tecnologías de la información y la comunicación (TIC o bien NTIC para nuevas tecnologías de la información y de la comunicación) agrupan los elementos y las técnicas usadas en el tratamiento y la transmisión de las informaciones, principalmente de informática, Internet y telecomunicaciones.
Son tecnologías de la información y de comunicaciones, constan de equipos de programas informáticos y medios de comunicación para reunir, almacenar, procesar, transmitir y presentar información en cualquier formato es decir voz, datos, textos e imágenes.
Que son las TICs?

malware informatico

Cabe aclarar que un virus informático mayoritariamente atacará solo el sistema operativo para el que fue desarrollado, aunque ha habido algunos casos de virus multiplataforma
Los virus informáticos afectan en mayor o menor medida a casi todos los sistemas más conocidos y usados en la actualidad. Windows, MacOS, Linux...
Virus informáticos y su propagación en otros sistemas operativos
Después de 1984, los virus han tenido una gran expansión, desde los que atacan los sectores de arranque de disquetes hasta los que se adjuntan en un correo electrónico.
Sin embargo, el término virus no se adoptaría hasta 1984, pero estos ya existían desde antes. Victor Vyssotsky, Robert Morris Sr. y Doug McIlroy, investigadores de Bell Labs (se cita erróneamente a Dennis Ritchie o Ken Thompson como cuarto coautor) desarrollaron un juego de ordenador llamado Darwin (del que derivará Core Wars) que consiste en eliminar al programa adversario ocupando toda la RAM.1​
El primer virus atacó a una máquina IBM Serie 360 (y reconocido como tal). Fue llamado Creeper, (ENMS) creado en 1972. Este programa emitía periódicamente en la pantalla el mensaje: «I'm the creeper... catch me if you can!» («¡Soy la enredadera... Atrápame si puedes!»). Para eliminar este problema se creó el primer programa antivirus denominado Reaper (segador).
Los virus informáticos tienen básicamente la función de propagarse a través de un software, son muy nocivos y algunos contienen además una carga dañina (payload) con distintos objetivos, desde una simple broma hasta realizar daños importantes en los sistemas, o bloquear las redes informáticas generando tráfico inútil. El funcionamiento de un virus informático es conceptualmente simple. Se ejecuta un programa que está infectado, en la mayoría de las ocasiones, por desconocimiento del usuario. El código del virus queda residente (alojado) en la memoria RAM de la computadora, incluso cuando el programa que lo contenía haya terminado de ejecutar. El virus toma entonces el control de los servicios básicos del sistema operativo, infectando, de manera posterior, archivos ejecutables que sean llamados para su ejecución. Finalmente se añade el código del virus al programa infectado y se graba en el disco, con lo cual el proceso de replicado se completa.
Un virus o virus informáticon. 1​ es un software que tiene por objetivo alterar el funcionamiento normal de cualquier tipo de dispositivo informático, sin el permiso o el conocimiento del usuario principalmente para lograr fines maliciosos sobre el dispositivo. Los virus, habitualmente, reemplazan archivos ejecutables por otros infectados con el código de este. Los virus pueden destruir, de manera intencionada, los datos almacenados en una computadora, aunque también existen otros más inofensivos, que solo producen molestias o imprevistos.

Convergencia digital

La base de la convergencia tecnológica tal y como se plantea, choca con una sociedad en la que prima el consumismo como expresión del ser humano. Por ello, y pese a que se pueda apreciar la conversión de dispositivos tecnológicos (celulares, smartphones, lectores electrónicos, tabletas...), su producción no se ha visto reducida, sino todo lo contrario, ya que responde a la premisa consumista imperante.
Muchos expertos[¿quién?] ven todo eso como la punta del iceberg, ya que todas las facetas de la vida social o institucional como negocios, gobierno, arte, periodismo, salud o educación traen consigo un incremento de los espacios digitales a través de redes crecientes de dispositivos TIC.[cita requerida]
La convergencia se define como la interconexión de tecnologías de la computación e información, contenido multimedia y redes de comunicaciones que han llegado como resultado de la evolución y popularización de internet, tanto como de actividades, productos y servicios que han emergido desde el espacio digital.
Hoy en día estamos rodeados por un mundo multimedia convergente en muchos niveles, con nodos de comunicación e información continuamente adaptándose para satisfacer a demandas creadas por la propia tecnología y cambiando la forma de crear, consumir, aprender a crear una con otras.
Gracias a la evolución de la tecnología, ha sido factible y se ha podido desarrollar la convergencia. Por lo tanto, la tecnología es el medio a través del cual se remueve el conocimiento científico a la solución de dificultades concretas en una materia o actividad. A través de la tecnología se consiguen aparatos, procedimientos y habilidades que, frente la investigación, la experimentación o la experiencia, accedan a la generación de nuevos productos, procesos y servicios.
Durante las primeras décadas los sistemas de computación eran extremadamente grandes e inamovibles debido a su condición de tamaño. Más adelante se conjuga la tecnología y la informática para crear computadores por separado, pero interconectadas y capaces de realizar el mismo trabajo que el gran computador de los primeros tiempos. Aquí subyace el tema de red de computadoras, que alude a un concepto de computadores automáticos conectados.
El concepto de convergencia tecnológica se utiliza principalmente en el ámbito de las telecomunicaciones para denominar las redes, sistemas y servicios que se generan a partir de tales redes, sistemas y servicios o combinándolos. Además puede hacer referencia a tecnologías previamente separadas como la voz datos (y aplicaciones de productividad) que ahora comparten recursos e interactúan entre sí sinérgicamente, creando nuevas posibilidades.
La convergencia tecnológica es la tendencia de diferentes sistemas tecnológicos en la evolución hacia la realización de tareas similares.

Delitos informáticos

La Organización de Naciones Unidas reconoce los siguientes tipos de delitos informáticos:
La criminalidad informática tiene un alcance mayor y puede incluir delitos tradicionales como el fraude, el robo, chantaje, falsificación y la malversación de caudales públicos en los cuales ordenadores y redes han sido utilizados como medio. Con el desarrollo de la programación y de Internet, los delitos informáticos se han vuelto más frecuentes y sofisticados.
Mucha información es almacenada en un reducido espacio, con una posibilidad de recuperación inmediata, pero por complejas que sean las medidas de seguridad que se puedan implantar, aún no existe un método infalible de protección.8​
Por todo ello, la última orientación jurídica es priorizar el enfoque en la seguridad en las redes y los sistemas de información. A tal fin obedece la Directiva de la Unión Europea relativa a las medidas destinadas a garantizar un elevado nivel común de seguridad de las redes y sistemas de información en la Unión,7​ también conocida como Directiva NIS. Esta Directiva impone, por ello, a las entidades gestoras de servicios esenciales, así como a los prestadores de ciertos servicios digitales considerados clave en el funcionamiento de Internet, la obligación de establecer sistemas de gestión de la seguridad de la información en sus organizaciones y de notificar a las autoridades los incidentes que tengan especial gravedad. Además, obliga a los Estados miembros a supervisar el cumplimiento de estas obligaciones y a velar por que existan equipos de respuesta a incidentes de seguridad con capacidad para proteger a las empresas de la propagación de estos incidentes. Así mismo, impulsa la cooperación entre autoridades nacionales y el intercambio de información como medio para elevar el nivel de seguridad en la Unión Europea frente a las amenazas de carácter transfronterizo.
En la actualidad debe hablarse de ciberdelitos,5​ pues este concepto sustantiva las consecuencias que se derivan de la peculiaridad que constituye la red digital como medio de comisión del hecho delictivo, y que ofrece contornos singulares y problemas propios, como por ejemplo la dificultad de determinar el lugar de comisión de tales hechos ilícitos, indispensable para la determinación de la jurisdicción y competencia penal, para su enjuiciamiento y aplicación de la correspondiente ley penal, los problemas para la localización y obtención de las pruebas de tales hechos delictivos, la insuficiente regulación legal de los ilícitos que pueden realizarse a través de la Red o de las diligencias procesales de investigación aplicables para el descubrimiento de los mismos —normativa igualmente desbordada por el imparable avance de las innovaciones tecnológicas—, o, en fin, la significativa afectación que la investigación policial en Internet tiene sobre los derechos fundamentales de los ciudadanos.6​
Los Ciberdelitos son actitudes contrarias a los intereses de las personas teniendo como instrumento o fin (concepto atípico) a las computadoras.4​
Tienen por objeto causar daños, provocar pérdidas o impedir el uso de sistemas informáticos (delitos informáticos).
Se cometen mediante el uso de entornos digitales, redes, blockchain, computadoras, sistemas informáticos u otros dispositivos de las nuevas tecnologías de información y comunicación (la informática es el medio o instrumento para realizar un hecho anti jurídico).
Los delitos informáticos son actividades ilícitas o antijurídicas que:
Además de los ataques que tienen como objetivo destruir y dañar activos, sistemas de información y otros sistemas de computadoras, utilizando medios electrónicos y/o redes de Internet, se producen nuevos delitos contra la identidad, la propiedad y la seguridad de las personas, empresas e instituciones, muchos de ellos como consecuencia del valor que han adquirido los activos digitales para la big data empresarial y sus propietarios bien sean entes jurídicos o personas naturales. Existen también otras conductas criminales que aunque no pueden considerarse como delito, se definen como ciberataques o abusos informáticos y forman parte de la criminalidad informática.2​ La criminalidad informática consiste en la realización de un tipo de actividades que, reuniendo los requisitos que delimitan el concepto de delito, son llevados a cabo utilizando un elemento informático.3​
Delito informático, delito cibernético o ciberdelito es toda aquella acción antijurídica que se realiza en el entorno digital, espacio digital o de Internet. Ante el extendido uso y utilización de las nuevas tecnologías en todas las esferas de la vida (economía, cultura, industria, ciencia, educación, información, comunicación, etc.) y el creciente número de usuarios, consecuencia de la globalización digital de la sociedad, la delincuencia también se ha expandido a esa dimensión. Gracias al anonimato y a la información personal que se guarda en el entorno digital, los delincuentes han ampliado su campo de acción y los delitos y amenazas a la seguridad se han incrementado exponencialmente.1​

Comunidades virtuale

Hoy en día las comunidades virtuales han evolucionado a tal punto que hay millones de usuarios que acceden a ellas cada día, y la cantidad de funciones.
Sin embargo, las primeras comunidades virtuales ya existían desde los años 1970 del siglo XX, particularmente en torno al intercambio de datos especializado en ámbitos militar, científico y académico, gracias a los mecanismos de comunicación de la entonces rudimentaria Internet, como Bulletin Board System o BBS (en español Sistema de Tablón de anuncios).
El término de comunidad virtual fue utilizado por primera vez por Howard Rheinhold en su libro de 1994 La comunidad virtual: Una sociedad sin fronteras.
Las comunidades virtuales pueden ser muy diversas y específicas, involucrando personas de procedencias alejadas geográfica y culturalmente, ordenadas en torno a un tema común de su pasión o interés, y un “espacio” virtual que puede estar determinado por una página Web o un servicio En línea. 3​
Son grupos de individuos e instituciones organizados cibernéticamente en torno a un margen de intereses específicos, cuyas interacciones, vínculos, relaciones y comunicaciones se dan a través de Red.
Se denomina comunidad virtual o comunidad digital1​ a aquella sección de datos procesados entre sí, cuyos vínculos, interacciones, relaciones, comunicaciones, y técnicas tienen lugar en un espacio virtual, no en un espacio físico como el CPU. Las comunidades virtuales se forman a partir de procesos similares entre un grupo de personas, que su trabajo es organizar en secciones la gran red de Internet . Se organizan y se llevan a cabo a partir de servicios en línea. Puede ser de cualquier tema o de cualquier estudio tecnológico, no hay negaciones. Las comunidades saben que son redes, evolucionan de este modo, ampliando los miembros, diversificándose entre sí, nacen en el ciberespacio.2​

E-learning

Las plataformas de e-learning se ofrecen tanto en modalidad ASP (Aplication Service Provider) hosteadas en servidores propios de e-ABC Learning, o pueden ser instaladas on-site en servidores del cliente. De todas maneras el hosting es solo un pequeño porcentaje del servicio brindado por e-ABC Learning, ya que el mantenimiento de un sistema informático y una exitosa implementación del LMS requiere de una asistencia más amplia que solo la aplicación. A continuación se muestran los diferentes aspectos que comprenden nuestro servicio de LMS y su importancia porcentual en el costo del mismo.
Estas plataformas tienen una serie de herramientas en común así como otras que los diferencian, es por ello que e-ABC Learning intenta brindar la mejor solución adaptándose a las necesidades propias de cada cliente.
Ofrece libertad en cuanto al tiempo y ritmo de aprendizaje.
Posibilita un aprendizaje constante y nutrido a través de la interacción entre tutores y alumnos
Permite utilizar la plataforma con mínimos conocimientos.
Anula las distancias geográficas y temporales.
Combina el poder de Internet con el de las herramientas tecnológicas.
Brinda capacitación flexible y económica.
Beneficios de una plataforma de e-learning:
Este sistema permite la creación de “aulas virtuales”; en ellas se produce la interacción entre tutores y alumnos, y entre los mismos alumnos; como también la realización de evaluaciones, el intercambio de archivos, la participación en foros, chats, y una amplia gama de herramientas adicionales.
La plataforma de e-learning, campus virtual o Learning Management System (LMS) es un espacio virtual de aprendizaje orientado a facilitar la experiencia de capacitación a distancia, tanto para empresas como para instituciones educativas.

Blogs

/es.wikipedia.org/wiki/Blog
Open Diary lanzado en octubre de 1998, pronto creció hasta miles de diarios en línea. Open Diary innovó en los comentarios de los lectores, siendo el primer blog comunitario donde los lectores podían añadir comentarios a las entradas de los blogs.
Tras un comienzo lento, los blogs ganaron popularidad rápidamente; el sitio Xanga, lanzado en 1996, solo tenía 100 diarios en 1997, pero más de 50 000 000 en diciembre de 2005. El uso de blogs se difundió durante 1999 y los siguientes años, siendo muy popularizado durante la llegada casi simultánea de las primeras herramientas de alojamiento de blogs:
El término «weblog» fue acuñado por Jorn Barger el 17 de diciembre de 1997. La forma corta, «blog», fue acuñada por Peter Merholz, quien dividió la palabra weblog en la frase we blog en la barra lateral de su blog Peterme.com en abril o mayo de 1999,4​5​6​ y rápidamente fue adoptado tanto como nombre y verbo (asumiendo «bloguear» como «editar el weblog de alguien o añadir un mensaje en el weblog de alguien»).
Los blogs pueden ser construidos y almacenados usando servicios de alojamiento de blogs dedicados, o pueden ser concretados y accedidos mediante software genérico para blogs, por ejemplo usando los productos Blogger o LiveJournal, o mediante servicios de alojamiento web corrientes.
Los primeros blogs eran simplemente componentes actualizados de sitios web comunes. Sin embargo, la evolución de las herramientas que facilitaban la producción y mantenimiento de artículos web publicados y ordenados de forma cronológica, hizo que el proceso de publicación pudiera dirigirse hacia muchas más personas, y no necesariamente a aquellos que tuvieran conocimientos técnicos. Últimamente, esto ha llevado a que en la actualidad existan diversos procedimientos para publicar blogs. Por ejemplo, el uso de algún tipo de software basado en navegador, es hoy en día un aspecto común del blogging.
Los sitios web, como los sitios corporativos y las páginas web personales, tenían y todavía tienen a menudo secciones sobre noticias o novedades, frecuentemente en la página principal, y clasificados por fecha. Uno de los primeros precursores de un blog fue el sitio web personal de Kibo, actualizado mediante USENET.
También había otras formas de diarios en línea. Un ejemplo era el diario del programador de juegos John Carmack, publicado mediante el protocolo Finger.
El blog moderno es una evolución de los diarios en línea, donde la gente escribía sobre su vida personal, como si fuese un diario íntimo pero dándole difusión en la red. Las páginas abiertas Webring incluían a miembros de la comunidad de diarios en línea. Justin Hall, quien escribió desde 1994 su blog personal mientras era estudiante de la Universidad de Swarthmore, es reconocido generalmente como uno de los primeros blogueros.3​
1994-2000
En los años 1990, los programas para crear foros de internet, por ejemplo WebEx, posibilitaron conversaciones con hilos. Los hilos son mensajes que están relacionados con un tema del foro.
Antes de que los blogs se hicieran populares, existían comunidades digitales como USENET, xrt listas de correo electrónico y BBS.
Actualmente un blog puede tener diversas finalidades según el tipo, taxonomía o incluso su autoría, como por ejemplo para reforzar la marca personal del autor, generar información para comunidades temáticas concretas o incluso servir como medio para buscar oportunidades, etc.[cita requerida]
Sirve como publicación en línea de historias con una periodicidad muy alta, que son presentadas en orden cronológico inverso, es decir, lo más reciente que se ha publicado es lo primero que aparece en la pantalla. Antes era frecuente que los blogs mostraran una lista de enlaces a otros blogs u otras páginas para ampliar información, citar fuentes o hacer notar que se continúa con un tema que empezó otro blog.
Un blog1​ o bitácora2​ es un sitio web que incluye, a modo de diario personal de su autor o autores, contenidos de su interés, que suelen estar actualizados con frecuencia y a menudo son comentados por los lectores.1​

E-gobierno

Gobierno Electrónico no es solo algo relacionado con trámites en línea ni reestructuras organizacionales o de procesos. Se trata de una concepción sociológica y política que hoy no parece estar conceptualmente presente de manera clara. Se siguen dotando de extrema relevancia a la tecnología como hacedores de gobierno electrónico y aunque el ciudadano está cada vez más presente en las agendas digitales, y se ensayan conceptos como ventanillas únicas de atención, de trámites, de compras, sigue siendo una referencia todavía marginal el ciudadano y el contexto sociológico (...) consideramos apropiado aggiornarnos de electrónico a digital en esta materia ya que la connotación electrónico posee una carga pos guerra donde primaban las máquinas y dispositivos electro-mecánicos, hoy la digitalización ha cambiado la perspectiva de la propia industria y ciertamente en debemos actualizar nuestro diccionario.6​
Algunos autores ven al Gobierno Electrónico desde una perspectiva más holística, por ejemplo entendiendo que el
Es importante señalar que el gobierno electrónico es un instrumento para lograr el mejor funcionamiento del estado , y no para convertirse en un fin en sí mismo; razón por la cual debe tener una gestión transparente.
Según Gartner innovación continua de los servicios, la participación de los ciudadanos y la forma de gobernar mediante la transformación de las relaciones externas e internas a través de la tecnología, Internet y las nuevas formas de comunicación.5​
La OCDE lo define como el uso de las Tecnologías de la Información y Telecomunicación, particularmente la Internet, como una herramienta para alcanzar un buen gobierno.4​
La Carta Iberoamericana de Gobierno Electrónico "el Gobierno Electrónico es el uso de las tecnologías de la información y de la comunicación, en los órganos de la Administración Pública, para mejorar la información y los servicios ofrecidos a los ciudadanos, orientar la eficacia y la eficiencia de la gestión pública e incrementar sustantivamente la transparencia del sector público y de la activa participación de los ciudadanos."
La Unión Europea caracteriza al Gobierno electrónico como "el uso de las tecnologías de la información y comunicación en las administraciones públicas- para mejorar los servicios y el proceso democrático y para reforzar el apoyo a las políticas públicas".
La E-government Act norteamericana de 2002 lo define como "el uso por del Gobierno de aplicaciones basadas en Internet y otras tecnologías de la información, combinado con el proceso que implementa estas tecnologías para desarrollar el acceso y envío de información gubernamental y servicios; o llevar a cabo mejoras en las operaciones gubernamentales."
Existen varias definiciones de Gobierno Electrónico. Algunas de ellas.
El gobierno electrónico o e-gobierno (en inglés, e-government), es el uso de dispositivos tecnológicos de comunicación, como computadoras e Internet para proporcionar servicios públicos a ciudadanos y otras personas en un país o región. El gobierno electrónico ofrece nuevas oportunidades para un acceso ciudadano más directo y conveniente al gobierno, y para la provisión de servicios gubernamentales directamente a los ciudadanos.1​ El término consiste en las interacciones digitales entre un ciudadano y su gobierno (C2G), entre gobiernos y otras agencias gubernamentales (G2G), entre gobierno y ciudadanos (G2C), entre gobierno y empleados (G2E), entre gobierno y empresas (G2B).2​ Esta interacción consiste en que los ciudadanos se comuniquen con todos los niveles de gobierno (ciudad, estado/ provincia, nacional e internacional), facilitando la participación ciudadana en la gobernanza utilizando tecnologías de la información y comunicación (TIC) y reingeniería de procesos comerciales (BPR). Los ideales de interacción del ciudadano que incorporan estas tecnologías, incluyen valores progresivos, participación ubicua, geolocalización y educación del público.3​

E-salud

Como ya ha sido mencionado el impacto que tiene día a día la cibermedicina es de gran magnitud por lo tanto se debe asegurar en su mayoría la calidad de información a la que accede la población ya que puede tener grandes repercusiones por el mal uso de la información obtenida.
Cada vez son más las personas que recurren al Internet para informarse sobre su salud ya sea buscando medicinas o doctores, por ello este nuevo sistema ha tenido repercusiones importantes en el mundo debido a que ha generado un impacto tanto positivo como negativo sobre los usuarios de Internet, debido a la gran cantidad de información a la que tienen acceso y las ventajas que pueden obtener de los mismos, además que debido a que su costo es bajo y accesible, la gran mayoría de la población ha hecho uso de éstos, significa una nueva revolución tecnológica que con el tiempo va a ir tomando más fuerza y relevancia en el mundo de la medicina, logrando así mejorar los servicios y la calidad de la salud.
Impacto en la sociedad
Servicios móviles de urgencia
Hospitalización a domicilio
Aplicación de cibermedicina en centros de asesoramiento.
Hospitales virtuales
Perspectivas a futuro
La variedad de información con poca calidad que es encontrada en Internet en su mayoría.
Riesgo de globalización.
Resistencia al uso de tecnologías presente en los brindadores de salud.
Pueden existir aplicaciones a costos altos sin la certeza de tener buena información.
Necesidad de creación de un marco legal en cuanto a lo que implica la implementación de estas tecnologías y el uso de la información.
Puede haber un mal manejo de la información, o que ésta sea errónea.
Desventajas
De acuerdo a ciertos códigos, sellos y asociaciones, varias páginas de las que disponen los usuarios son seguras y con información útil y de calidad.
Permitirá tener una mayor organización de la información que se tiene de cada uno de los pacientes.
Los pacientes forzaran a los médicos a mantenerse actualizados, para de esta manera recibir la información adecuada y eficaz.
Derribará fronteras geográficas, con videoconferencias
Gracias al acceso a Internet los usuarios/pacientes pueden buscar consejos de como cuidar su salud.
Hay una participación activa tanto de los médicos como de los pacientes, así como foros en los que se puedan tratar los problemas de salud.
Los médicos tienen la misma información en el mismo momento.
Estas aplicaciones son a un bajo costo y/o gratuitas.
A partir de la Conferencia de Alto Nivel y Exposición eSalud 2006 se destaca que la eSalud:14​
Ventajas
Equipos virtuales de cuidados sanitarios: consiste en grupos de profesionales sanitarios que colaboran y comparten información sobre pacientes a través de equipos digitales (modelo de atención compartida: interfaz entre atención primaria y secundaria en medicina)
Difusión de Información orientada al especialista: servicios de información centrados en las necesidades de los profesionales sanitarios (DSI, clipping, etc.)
Difusión de Información orientada al ciudadano: tanto los pacientes como aquellas personas sanas desean ser informados sobre temas médicos.
Medicina basada en la evidencia12​ también llamada “medicina basada en pruebas". Rafael Bravo Toledo y Concepción Campos Asensio la definen como “el uso consciente, explícito y juicioso de las mejores y más actuales evidencias o pruebas en la toma de decisiones sobre el cuidado de los pacientes”.13​
Telemedicina: incluye todas las variantes de pruebas físicas y psicológicas que no requieren de la visita presencial del enfermo hasta el especialista. Gracias a este servicio, los pacientes se desplazan menos y aumenta el área de acción del especialista.
Historiales Médicos Electrónicos: administración digital de historias clínicas que facilita el archivo, consulta, edición e intercambio de datos de los pacientes entre diversos profesionales sanitarios —centros de salud, hospitales, especialistas, farmacias—.
Se ha logrado con ayuda de la cibermedicina a ingresar píldoras al organismo para detectar enfermedades, las píldoras tienen pequeñas cámaras que ayudan a dar un mejor diagnóstico. Se puede usar como medicina preventiva. Permite la creación de grupos de auto-ayuda para que cada uno de los pacientes sea capaz de expresar su experiencia abiertamente acerca de su padecimiento con otros enfermos
Usos
Capacitación al personal de salud.
Una adecuada distribución de los recursos con los que se cuenta.
Crear estándares que garanticen que las herramientas que se utilizarán utilizan el mismo formato y que además, tienen la calidad debida.
Crear un marco legal y principios éticos que aseguren que la información de cada paciente se encuentra segura.
Para que la cibermedicina pueda funcionar de manera adecuada es necesario:
Hay varias páginas y programas dedicados a la salud, ya sean para consultar sobre algún tema, ver el tratamiento, como diagnosticar, noticias, enfermedades, nuevos medicamentos, bases de datos médicos, etcétera. Entre ellos MedScape,7​ Doctor’s Guide,8​ PubMed,9​ MEDLINE10​ y OpenTrials, patrocinado por la OpenKnowledge Foundation.11​
Existen varios servicios que tienen el propósito de revisar que la información que se introduce en internet sea de calidad y veraz, como: "Health on the Net" HON CODE6​ el cual se basa en 8 principios los cuales tienen que cumplir las páginas dirigidas a la salud, sólo las páginas con el sello de HON CODE cumplen con todas las características de una página confiable.
Desarrollo
Dando un ejemplo en 1996 el acceso a la página web Medline era de 7 millones y en un solo año incrementó a 120 millones.5​
De acuerdo con una encuesta realizada en 1998,4​ 27% de usuarios mujeres y 15% de usuarios hombres, a nivel mundial, consultaron información médica con frecuencia periódica semanal o diaria
Con la llegada de las tecnologías con acceso a Internet se ha podido aumentar el acceso a diferentes servicios y fuentes de información, fue una revolución informática la que le permitió crecer a varias compañías y estructuras de la sociedad en la que los usuarios de todo el mundo comenzaron a tener acceso. Fue entonces cuando varias ideas para desarrollar la tecnología comenzaron a realizarse en relación al mejoramiento de la salud y al acceso a las oportunidades para todos los usuarios a un costo accesible. Cabe mencionar que de las millones de páginas web, hay miles que están dedicadas a la salud, y para cualquier usuario sería imposible leer cada una para obtener información certera y de calidad.
Antecedentes
La cibermedicina es una nueva tecnología de la medicina que toma sus raíces de la informática y la salud pública2​ y crea nuevos sistemas computacionales, nuevos equipos, entre otros. Analiza las necesidades y deficiencias de la salud de una población de una ciudad o país. Además, abarca el uso de las tecnologías de redes globales para educar, innovar y comunicar de manera que promuevan la práctica médica, la erudición y la potenciación.3​
La eSalud es un avance revolucionario para los profesionales de la salud, mediante la TICs mejor la calidez humana entre el paciente-doctor, buscando mejores procedimiento en el entorno pre-hospitalario y hospitalario.
ESalud, e-Salud o cibermedicina alude a la aplicación de las tecnologías de la información y las comunicaciones (TIC) para la atención de salud, la vigilancia y la documentación sanitaria así como la educación los conocimientos y las investigaciones en materia de salud. Está definida como “La ciencia que aplica las tecnologías de internet y las redes de cubrimiento globales en la medicina y la salud pública, estudia el impacto e implicaciones de Internet y evalúa los retos y oportunidades de la atención médica”.1​ Se discute la simultaneidad del término con el de cuidados sanitarios informatizados o telemedicina. Sin embargo más que solaparse, estas modalidades se complementan correspondiendo a la eSalud una amplia variedad de servicios situados entre la medicina y los cuidados sanitarios tecnológicamente asistidos.

Banca online

Tras su envío a casa, además se puede obligar a solicitar su activación por otro medio, como el teléfono. Esto minimiza los peligros de que se intercepte el correo.
Normalmente hay algún método para recuperarla si se olvida: se puede solicitar en el cajero, vía telefónica o en la misma web se puede solicitar el envío a casa.
Guardar la contraseña en un lugar seguro o, mucho mejor, memorizarla y destruirla.
Usar la conexión cifrada con cifrado fuerte, para el caso de que pueda haber un sniffer. Ver SSL/TLS.
Normalmente se opera registrándose con los datos del cliente y una clave o un certificado digital. Otras medidas de seguridad son:
Procedimiento y medidas de seguridad
Baja penetración de Internet en algunas zonas rurales o países en vías de desarrollo.
Ausencia de información sobre el uso y servicios ofrecidos y de habilidades tecnológicas entre los usuarios.
Límite de servicios y burocracia afuera de línea (solventado con el paso del tiempo).
Propia intangibilidad y separación física entre el cliente y la entidad.
Preocupación por la seguridad (virus, piratas,...) y por la información personal y confidencial.
No obstante se ha detectado un conjunto de obstáculos o inconvenientes que inhiben la óptima adopción de la banca online (Muñoz Leiva, 2008: 59):
Oferta de productos y servicios personalizados.
Capacidad de elección de los clientes.
Transparencia en la información.
Ahorro en costes para el banco que pueden o deben repercutir en el cliente. Puede ser más barato que el teléfono, sobre todo si se tiene tarifa plana o el teléfono de información es una línea 902.
Ahorro en tiempo.
Acceso global.
Comodidad y servicios de conveniencia, 24/7. Operaciones desde casa.
Desde el punto de vista del consumidor, la banca en línea ofrece una serie de ventajas que permiten crear valor:
Ventajas y barreras
En este movimiento (en este cambio de conducta) del consumidor, al pasar desde la banca tradicional basada en oficinas a un banca autónoma, los inversores particulares han sufrido un profundo cambio en su relación con las instituciones financieras. En el tipo de relación de intercambio B2C aparece el denominado 'banco virtual' o banco en casa, destinado a los usuarios particulares, el cual podría ser incluido en cualquiera de los tres tipos de banca definidos anteriormente. Así mismo, esto se ha difundido también en el negocio de los brókers y las compañías de seguros.
De las transacciones desde la casa sin necesidad de asistir personalmente a un banco se deriva la siguiente lista de servicios: consultas de saldo; solicitud de extractos (cuentas); transferencias internas (cuentas del mismo banco) o a terceros; seguimiento (transacciones) u otras operaciones más especializadas (cambios de divisas, transferencias internacionales, solicitud y aprobación de créditos).
La banca virtual o sin presencia física. Se considera a un banco virtual como un banco sin oficina y normalmente se asocia el concepto banca virtual al de banca electrónica. En términos generales, este mercado no debería denominarse virtual, siendo más adecuada la denominación de banca electrónica o por Internet, puesto que las organizaciones participantes en el intercambio existen físicamente.
La banca por Internet o 'en línea' comprende aquellas herramientas que ofrecen una entidad para que sus clientes hagan sus operaciones bancarias a través de la computadora, utilizando una conexión a la red Internet. Para otros investigadores, la banca por Internet es un nuevo tipo de sistema de información que usa los recursos novedosos de Internet y la World Wide Web (WWW) para permitir a los consumidores efectuar operaciones financieras en el espacio virtual.
La banca electrónica hace referencia al tipo de banca que se realiza por medios electrónicos como puede ser cajeros electrónicos, teléfonos, y otras redes de comunicación. Tradicionalmente, este término ha sido atribuido a la banca por Internet o banca en línea, pero conviene aclarar su significado. Algunos autores lo consideran como un constructo de orden superior que supone varios canales que incluyen también la banca telefónica, la banca por teléfono móvil (basada en tecnología Wireless Application Protocol –WAP– que traslada Internet al teléfono móvil), y la basada en televisión interactiva (iNet-television).
En la lucha por atribuir un nombre adecuado a dicha innovación tecnológica, aparecen términos como 'banca virtual', 'banca en línea', e-banking o genéricamente 'banca electrónica', aunque conviene aclarar qué se entiende por cada una de ellos (Clasificación de banca electrónica de Muñoz Leiva, 2008: 43):
La banca telefónica apareció en España a mediados de 1983 con el Banco Directo, entonces filial de Argentaria. Posteriormente continuó su crecimiento en 1995 de la mano del Banco Español de Crédito (Banesto) y del Banco Central Hispano (BCH). Aunque inicialmente solo servía como medio de consulta, en la actualidad incorpora prácticamente todos los servicios del sistema financiero (Usuarios, 2002; Muñoz Leiva, 2008: 42). La literatura científica cita también 1995 (concretamente el mes de octubre) como el momento de la irrupción de la banca en línea completamente desarrollada en EE. UU., de la mano del “Security First National Bank” (SFNB) (Gandy, 1995; Teo y Tan, 200) …

Sistema de información empresarial

Se basan en la Inteligencia Artificial, en las empresas se utilizan para ayudar a los expertos humanos en el procesamiento de altos volúmenes de datos, también se utilizan como conservación y posterior utilización del conocimiento cuando los colaboradores se retiran de las empresas y como maestros en el caso de requerirse capacitar a personal que conoce del tema pero que no es experto.1​
Sistema experto
Un Sistema de Información de Empresa normalmente será manejado por un Administrador de Sistemas profesional y será desplegado en servidores dedicados. Esto generalmente ofrece conectividad de red y suministra servicios que soporten las operaciones realizadas por la empresa.
Son indispensables para eliminar el problema de la fragmentación de la información causada por la existencia de múltiples sistemas de información en una organización, creando una estructura de datos estándar.
Los Sistemas Enterprise
Ellos suministran un sistema individual que es central para la organización y asegura que la información puede ser compartida a través de todos los niveles funcionales y jerarquías de gestión.
Los Sistemas de Información de Empresa suministran una plataforma tecnológica que permiten a las organizaciones integrar y coordinar sus procesos de negocio. Son herramientas y recursos de software que sirven como soporte para el proceso básico de captación, transformación y comunicación de la información dentro de una organización.
Sistema de Seguridad
Un Sistema de Información Empresarial o SIE (en inglés Enterprise Information System, acrónimo EIS) es generalmente cualquier tipo de sistema de computación que es de "clase enterprise". Esto significa normalmente que ofrece alta calidad de servicio, lidia con grandes volúmenes de datos - capaz de soportar cualquier organización grande ("enterprise").

Comercio electronico

A principio de los años 1970, aparecieron las primeras relaciones comerciales que utilizaban una computadora para transmitir datos, tales como órdenes de compra y facturas. Este tipo de intercambio de información, si bien no estandarizado, trajo aparejadas mejoras de los procesos de fabricación en el ámbito privado, entre empresas de un mismo sector.
La práctica del comercio electrónico comenzó a principios de 1970, con novedosas aplicaciones como la transferencia de fondos monetarios. Después apareció el intercambio de datos vía electrónica, que produjo una expiación en el comercio electrónico, dando lugar a otros tipos de procesos comerciales. Todos estos procesos permitieron que pequeñas empresas pudieran aumentar su nivel de competitividad implementando el comercio electrónico en sus actividades diarias. Debido a esto el comercio en línea se ha expandido muy rápidamente gracias a los millones de consumidores potenciales a los que se puede llegar a través de este medio.
En los últimos decenios del siglo XIX empresas comerciales como Montgomery Ward y luego Sears iniciaron la venta por catálogo en los Estados Unidos. Este sistema de venta, revolucionario para la época, consiste en un catálogo con fotos ilustrativas de los productos a vender. Este permitió a las empresas captar nuevos segmentos de mercado que no estaban siendo atendidos. Además, otro punto importante a tener en cuenta es que los potenciales compradores pueden escoger los productos en la tranquilidad de sus hogares, sin la asistencia o presión, según sea el caso, de un vendedor. La venta por catálogo tomó mayor impulso con la aparición de las tarjetas de crédito; además de determinar un tipo de relación de mayor anonimato entre el cliente y el vendedor.
Origen y evolución histórica
En los contratos de comercio electrónico el proveedor tiene un fuerte deber de información, que incluye todos los datos necesarios para usar correctamente el medio electrónico que se usa para la compra, los datos necesarios para comprender los riesgos de la contratación por ese medio electrónico y quién asume dichos riesgos, así como la información sobre el derecho a dejar sin efecto el contrato de compra.5​
En el 2020, 70% de los mercadólogos ven más efectivas las estrategias SEO que las campañas de marketing pagadas., 53% de los consumidores buscan un producto en internet, independientemente si lo van o no a comprar y “Donde comprar” + “mi área ó cerca de mí” a aumentado su búsqueda 200% en los últimos 2 años. 4​
En 2017, dos mil millones de personas realizaron una transacción de comercio electrónico móvil,2​dando lugar a una tasa de crecimiento interanual de un 23,4% según la Comisión Nacional de los Mercados y la Competencia (CNMC).3​
La mayor parte del comercio electrónico consiste en la compra y venta de productos o servicios entre personas y empresas, sin embargo un porcentaje considerable del comercio electrónico consiste en la adquisición de artículos virtuales (software y derivados en su mayoría), tales como el acceso a contenido "premium" de un sitio web.
La cantidad de comercio llevada a cabo electrónicamente ha crecido de manera extraordinaria debido a Internet. Una gran variedad de comercio se realiza de esta manera, estimulando la creación y utilización de innovaciones como la transferencia de fondos electrónica, la administración de cadenas de suministro, el marketing en Internet, el procesamiento de transacciones en línea (OLTP), el intercambio electrónico de datos (EDI), los sistemas de administración del inventario y los sistemas automatizados de recolección de datos.
Originalmente, el término se aplicaba a la realización de transacciones mediante medios electrónicos tales como el intercambio electrónico de datos; sin embargo, con el advenimiento del Internet y del World Wide Web, a mediados de la década de 1990 comenzó a referirse principalmente a la venta de bienes y servicios a través de Internet, usando como forma de pago medios electrónicos tales como las tarjetas de crédito y nuevas metodologías, como el pago móvil o las plataformas de pago. Vender y comprar ya es una tarea bastante sencilla propiciada, desde luego, por la tecnología, como los dispositivos móviles con acceso a la red.
El comercio electrónico —también conocido como e-commerce1​ (electronic commerce en inglés), comercio por Internet o comercio en línea— consiste en la compra y venta de productos o de servicios a través de internet, tales como redes sociales y otras páginas web. También puede ser definido como una actividad económica que permite el comercio de diferentes productos y servicios a partir de medios digitales, como páginas web, aplicaciones móviles y redes sociales. Por medio de la red virtual, los clientes pueden acceder a diversos catálogos de marcas, servicios y productos, en todo momento y en cualquier lugar.

Extensiones de archivo

Tipos de extensiones
En Windows 95 desaparecieron los límites impuestos por DOS en el número de caracteres del nombre de archivo y de la extensión.
En DOS los nombres de los archivos tenían un máximo de 8 caracteres, un punto y una extensión de como máximo tres letras, en total un máximo de 12 caracteres del Código ASCII que permitían distinguir unos archivos de otros dentro de un mismo directorio. No todos los caracteres del código ASCII estaban permitidos para nombrar un archivo, pues algunos (ejemplo: /*?+\ y otros) estaban reservados para otras funciones.
En los sistemas Unix los nombres de los archivos pueden contener cualquier carácter excepto el separador de directorios ("/") y por lo general no tienen límite en su tamaño o es un límite aceptable. La extensión no es un elemento diferenciado sino una convención dada a los nombres de archivo para reconocer su contenido.
En todos estos casos, las extensiones diferencian los nombres de los archivos y, a la vez, los identifican ante las aplicaciones que pueden manejarlos, lo que facilita la obtención de resultados.
ARCHIVO.VBS Archivo fuente escrito en lenguaje Visual Basic.
ARCHIVO.DOC Archivo de texto con formato de Microsoft Word.
ARCHIVO.RTF Archivo de texto con formato.
ARCHIVO.TXT Archivo de texto ASCII "texto plano".
APLICACIÓN.EXE Programa Ejecutable.
APLICACIÓN.OBJ Archivo objeto (necesario para su compilación).
APLICACIÓN.BAS Archivo Fuente escrito en lenguaje BASIC.
Por su extensión, un mismo nombre básico puede contener archivos de distinto propósito. Como en este ejemplo de DOS:
Dado que las extensiones de archivo legado son del sistema DOS, muchas de sus actuales características fueron heredadas por limitaciones en ese sistema. Los antiguos sistemas DOS limitaban la cantidad de caracteres de la extensión de archivo a tres, por lo que muchas extensiones convencionales poseen esa cantidad de caracteres. Además, los nombres de archivo en sistemas DOS son insensibles a las mayúsculas y minúsculas, por lo que la mayoría de las extensiones de archivo pueden escribirse en minúsculas o en mayúsculas o en una combinación de ambas.
Algunos sistemas operativos, especialmente los herederos de DOS como Windows, utilizan las extensiones de archivo para reconocer su formato, incluso el de archivos ejecutables. Otros sistemas operativos, como los basados en Unix, utilizan las extensiones de archivo por simple convención, y no las usan necesariamente para determinar el tipo de archivo.
En informática, el término extensión del fichero (también, extensión del archivo) es una cadena de caracteres anexada al nombre de un archivo, habitualmente predicha por un punto. Su función principal es distinguir el contenido del archivo, de modo que el sistema operativo disponga del procedimiento necesario para ejecutarlo o interpretarlo. Sin embargo, la extensión es solamente parte del nombre del archivo y no representa ningún tipo de obligación respecto a su contenido.

Reproductores de audio y video

es.wikipedia.org/wiki/Reproductor_multimedia_digital
Reproductores basados en disco duro - Dispositivos que leen ficheros de vídeo, imágenes y audio desde un disco duro. Estos reproductores tienen capacidades de almacenamiento mucho más grandes, desde 5GB a 200GB, dependiendo en la tecnología del disco duro. Su pantalla mide entre 1,8 y 7 pulgadas. Suelen pesar entre 100 y 500 gramos. Reproducen formatos más conocidos, pero siempre dependiendo del fabricante.
Reproductores basados en Flash - Estos son dispositivos que almacenan ficheros de audio digital en memoria interna o externa, como tarjetas de memoria. Normalmente son dispositivos con poca capacidad de almacenamiento, tradicionalmente con capacidades inferiores a 1 GB, aunque en los últimos años se han ido incrementado hasta los 32 GB. Reproducen formatos de archivo propietarios tales como MTV y AMV, además de archivos de imágenes en formatos JPEG y BMP, y reproducen audio en formatos MP3 y WMA. Algunos también pueden leer formato libre Vorbis. Al mismo tiempo, incorporan funciones de grabación de voz, radio FM y visualización de textos. Actualmente el tamaño de la pantalla LCD supera las 1,8 o 2 pulgadas.
Hay principalmente dos tipos de reproductores de vídeo digital, clasificados por su modo de almacenamiento:
En ocasiones, estos equipos pueden soportar otros formatos de audio y video.
MP4: audio en formato MP3 y video en formato MP4 (y sintonizador de radio en algunos casos).
MP3: audio en formato MP3.
De esta forma las prestaciones para cada equipo son:
Un reproductor multimedia digital es un dispositivo que almacena, organiza y reproduce archivos de video, audio e imágenes. Comúnmente se le denomina Reproductor MP4, pero este nombre fue inventado por los fabricantes como estrategia de marketing, debido a la sensación de superioridad que este nombre genera respecto al de Reproductor de MP3. Los reproductores multimedia digitales reproducen distintos formatos de audio y video, dependiendo del fabricante, y no obligatoriamente el formato *.mp4.

Correo electrónico

finalmente, es posible obtener gratuitamente una cuenta de correo en servicios tales como GMail, Yahoo Mail, Outlook.com y muchos otros.
existen proveedores de correo que proporcionan este servicio a cambio de una cuota.
en el ámbito doméstico, los proveedores de servicios de internet suelen facilitar una o varias cuentas por cada contrato.
los centros educativos, especialmente los universitarios, hacen lo propio con empleados y alumnos.
las empresas y administraciones suelen proporcionar una cuenta de correo corporativo a sus empleados.
Existen diversos modos de obtener una cuenta de correo electrónico:
Para poder enviar o recibir mensajes de un correo electrónico es necesario disponer de una cuenta de correo. Dicha cuenta es un buzón virtual identificado por una dirección de correo electrónico de la forma «Juan.Nadie@ejemplo.com». Cada dirección se compone de una parte local (en este caso Juan.Nadie), el símbolo separador @ y una parte que identifica un dominio (en este caso ejemplo.com).18​
Cartel de la calle "Arroba", en el Parque Científico Tecnológico de la Universidad de Alcalá.
Direcciones de correo electrónico
En 1977, el correo electrónico se convirtió en un servicio de red estandarizado, gracias a diversos estándares parciales,16​ que culminaron con la especificación RFC 733.17​
Fue así mismo Tomlinson quien incorporó el uso de la arroba (@) como divisor entre el usuario y la computadora en la que se aloja la cuenta del usuario de destino. Anteriormente no había necesidad de especificar la máquina de destino puesto que todos los mensajes que se enviaban eran locales; sin embargo, con el nuevo sistema era preciso distinguir el correo local del correo de red. El motivo de elegir este símbolo fue que en inglés la arroba se lee «at» (en español en). Así, la dirección ejemplo@máquina.com se lee ejemplo en máquina punto com.15​
El primer mensaje de correo electrónico genuinamente enviado a través de una red data del año 1971. El mensaje, que contenía únicamente el texto «QWERTYUIOP», se envió a través de la red ARPANET,13​ aunque las máquinas estaban físicamente una junto a la otra. La idea del correo electrónico sobre redes se debe a Ray Tomlinson, quien utilizó el protocolo experimental CYPNET para enviar por red los mensajes, que hasta ese momento solo comunicaban a los usuarios de una misma computadora.14​
El correo electrónico es anterior a la creación de Internet.11​ El primer antecedente data de 1962, cuando el Instituto Tecnológico de Massachusetts adquirió una computadora de tiempo compartido modelo IBM 7090 (actualizado en 1963 a un IBM 7094) que permitía a varios usuarios iniciar sesión desde terminales remotas, y así guardar archivos en el disco. Este sistema se utilizó informalmente para intercambiar mensajes, pero ya en 1965 se desarrolló el servicio MAIL, que facilitaba el envío de mensajes entre los usuarios de esta máquina.12​
Origen del correo electrónico
Los sistemas de correo electrónico se basan en un modelo de almacenamiento y reenvío, de modo que no es necesario que ambos extremos se encuentren conectados simultáneamente. Para ello se emplea un servidor de correo que hace las funciones de intermediario, guardando temporalmente los mensajes antes de enviarse a sus destinatarios.10​ En Internet, existen multitud de estos servidores, que incluyen a empresas y proveedores de servicios de internet.
El término «correo electrónico» proviene de la analogía con el correo postal: ambos sirven para enviar y recibir mensajes, y se utilizan «buzones» intermedios (servidores de correo). Por medio del correo electrónico se puede enviar no solamente texto, sino todo tipo de archivos digitales,7​ si bien suelen existir limitaciones al tamaño de los archivos adjuntos.8​9​
Un correo electrónico (en inglés: electronic mail, normalmente abreviado e-mail o email)4​5​ es un servicio de red que permite a los usuarios enviar y recibir mensajes (también denominados mensajes electrónicos o cartas digitales) mediante redes de comunicación electrónica.6​

Computacion en la nube

El concepto fundamental de la entrega de los recursos informáticos a través de una red global tiene sus raíces en los años sesenta. La idea de una «red de computadoras intergaláctica» la introdujo en los años sesenta JCR Licklider, cuya visión era que todo el mundo pudiese estar interconectado y poder acceder a los programas y datos desde cualquier lugar, según Margaret Lewis, directora de mercadotecnia de producto de AMD. «Es una visión que se parece mucho a lo que llamamos computación en la nube».
Fundamentos
El concepto de la computación en la nube empezó en proveedores de servicio de Internet a gran escala, como Google (Google Cloud Services), Amazon AWS (2006), Microsoft (Microsoft Azure) o Alibaba Cloud y otros que construyeron su propia infraestructura. De entre todos ellos emergió una arquitectura: un sistema de recursos distribuidos horizontalmente, introducidos como servicios virtuales de TI escalados masivamente y manejados como recursos configurados y mancomunados de manera continua. Este modelo de arquitectura fue inmortalizado por George Gilder en su artículo de octubre de 2006 en la revista Wired titulado Las fábricas de información. Las granjas de servidores, sobre las que escribió Gilder, eran similares en su arquitectura a la computación en malla, pero mientras que las redes se utilizan para aplicaciones de procesamiento técnico débilmente acoplados, un sistema compuesto de subsistemas con cierta autonomía de acción, que mantienen una interrelación continua entre ellos, este nuevo modelo de nube se estaba aplicando a los servicios de internet.2​
Comienzos
El software como servicio es un modelo de distribución de software en el que las aplicaciones están alojadas por una compañía o proveedor de servicio y puestas a disposición de los usuarios a través de una red, generalmente internet. La plataforma como servicio es un conjunto de utilitarios para abastecer al usuario de sistemas operativos y servicios asociados a través de Internet sin necesidad de descargas o instalación alguna. Infraestructura como servicio se refiere a la tercerización de los equipos utilizados para apoyar las operaciones, incluido el almacenamiento, hardware, servidores y componentes de red.
El concepto de «nube informática» es muy amplio, y abarca casi todos los posibles tipo de servicio en línea, pero cuando las empresas predican ofrecer un utilitario alojado en la nube, por lo general se refieren a alguna de estas tres modalidades: el software como servicio (SaaS, por sus siglas en inglés), plataforma como servicio (PaaS) e infraestructura como servicio (IaaS).
La computación en la nube es un nuevo modelo de prestación de servicios tecnológicos que impacta sin lugar a dudas en diversos negocios. Este modelo se apoya en infraestructuras tecnológicas dinámicas, caracterizados por la virtualización de recursos, un alto grado de automatización, una elevada capacidad de adaptación para atender demandas variables.
A menudo, el término «computación en la nube» se lo relaciona con una reducción de costos, disminución de vulnerabilidades y garantía de disponibilidad. Asimismo, la computación en la nube se la relaciona con un modelo de pago por uso. No obstante, el concepto de pago no puede ser solo relacionado con erogación económica dado que solo aplica en caso de proveedores externos, y en muchos casos hace referencia a poder medir el consumo aplicándose a centros de costos de la propia empresa.
La computación en la nube es la disponibilidad a pedido de los recursos del sistema informático, especialmente el almacenamiento de datos y la capacidad de cómputo, sin una gestión activa directa por parte del usuario. El término se usa generalmente para describir los centros de datos disponibles desde cualquier lugar para muchos usuarios a través de Internet desde cualquier dispositivo móvil o fijo.
Introducción
La computación en la nube (del inglés cloud computing),1​ conocida también como servicios en la nube, informática en la nube, nube de cómputo o simplemente «la nube», es un paradigma que permite ofrecer servicios de computación a través de una red, que usualmente es internet.

Búsqueda de información

Para alcanzar su objetivo de recuperación se sustenta en los sistemas de información, y al ser de carácter multidisciplinario intervienen bibliotecólogos para determinar criterio de búsqueda, la relevancia y pertinencia de los términos, en conjunto con la informática.
La recuperación de información es un estudio interdisciplinario. Cubre tantas disciplinas que eso genera normalmente un conocimiento parcial desde tan solo una u otra perspectiva. Algunas de las disciplinas que se ocupan de estos estudios son la psicología cognitiva, la arquitectura de la información, diseño de la información, inteligencia artificial, lingüística, semiótica, informática, biblioteconomía, archivística y documentación.
La Búsqueda y Recuperación de Información, llamada en inglés Information Search and Retrieval (ISR), es la ciencia de la búsqueda de información en documentos electrónicos y cualquier tipo de colección documental digital, encargada de la búsqueda dentro de estos mismos, búsqueda de metadatos que describan documentos, o también la búsqueda en bases de datos relacionales, ya sea a través de internet, una intranet, y como objetivo realiza la recuperación en textos, imágenes, sonido o datos de otras características, de manera pertinente y relevante.

Marketing digital

es.wikipedia.org/wiki/Mercadeo_digital
En la década de 1990, se acuñó por primera vez el término Mercadeo Digital.10​ Con el debut de la arquitectura servidor/cliente y la popularidad de las computadoras personales, las Customer relationship management (CRM) se convirtieron en un factor importante en la tecnología de mercadeo.11​ La feroz competencia obligó a los proveedores a incluir más servicios en su software, por ejemplo, aplicaciones de mercadeo, ventas y servicios. Los especialistas en mercadeo también pudieron poseer enormes datos de clientes en línea mediante el software ECRM después del nacimiento de Internet. Las empresas podrían actualizar los datos de las necesidades del cliente y obtener las prioridades de su experiencia. Esto llevó a que se publicara el primer banner publicitario en el que se podía hacer clic en 1994, que fue la campaña "Vas a" de AT&T y durante los primeros cuatro meses de su publicación, el 44% de todas las personas que lo vieron hicieron clic en el anuncio
El desarrollo del mercadeo digital es inseparable del desarrollo tecnológico. Uno de los primeros eventos clave ocurrió en 1971, cuando Ray Tomlinson envió el primer correo electrónico y su tecnología configuró la plataforma para permitir que las personas enviaran y recibieran archivos a través de diferentes máquinas.8​ Sin embargo, el período más reconocible como el inicio del mercadeo digital es 1990, ya que aquí fue donde se creó el motor de búsqueda Archie como índice para sitios FTP. En la década de 1980, la capacidad de almacenamiento de las computadoras ya era lo suficientemente grande como para almacenar grandes volúmenes de información de los clientes. Las empresas comenzaron a elegir técnicas en línea, como la mercadotecnia de bases de datos, en lugar de un intermediario de listas limitadas.9​ Este tipo de bases de datos permitieron a las empresas rastrear la información de los clientes de manera más efectiva, transformando así la relación entre comprador y vendedor. Sin embargo, el proceso manual no fue tan eficiente.
El mercadeo digital es el componente de la mercadotecnia que utiliza internet y tecnologías digitales en línea, como computadoras de escritorio, teléfonos móviles y otras plataformas y medios digitales para promover productos y servicios.1​2​ Su desarrollo durante las décadas de 1990 y 2000 cambió la forma en que las marcas y las empresas utilizan la tecnología para el mercadeo. A medida que las plataformas digitales se incorporaron cada vez más a los planes de mercadeo y la vida cotidiana,3​ y a medida que las personas utilizan cada vez más dispositivos digitales en lugar de visitar tiendas físicas,4​5​ las campañas de mercadeo digital se han vuelto frecuentes, empleando combinaciones de optimización de motores de búsqueda (OMB), mercadotecnia en motores de búsqueda (MMB), marketing de contenidos, mercadotecnia influyente, automatización de contenidos, mercadeo de campañas, mercadeo basado en datos, mercadeo de comercio electrónico, mercadotecnia en medios sociales, optimización de medios sociales, Email marketing, la publicidad gráfica, los libros electrónicos y los juegos y discos ópticos se han convertido en algo común. El mercadeo digital se extiende a los canales que no son de Internet que proporcionan medios digitales, como televisión, teléfonos móviles (SMS y MMS), devolución de llamada y tonos de llamada en espera.6​ La extensión a canales distintos de Internet diferencia el mercadeo digital del mercadeo en línea.7​
Mercadeo digital

ERP

Especializados. Un ERP especializado, brinda soluciones existentes en áreas de gran complejidad y bajo una estructura de constante evolución. Estas áreas suelen ser, el verdadero problema de las empresas, además de contener todas las áreas transversales. Trabajar bajo ERP especializados es el paso lógico de las empresas que requieren soluciones reales a sus verdaderas necesidades.Un ERP genérico solo ofrece un bajo porcentaje de efectividad basado en respuestas generalistas, que requieren ampliaciones funcionales.
Configurables. Los ERP pueden ser configurados mediante desarrollos en el código del software. Por ejemplo, para controlar inventarios, es posible que una empresa necesite manejar la partición de lotes, pero otra empresa no. Los ERP más avanzados suelen incorporar herramientas de programación de cuarta generación para el desarrollo rápido de nuevos procesos.
Modulares. Los ERP entienden que una empresa es un conjunto de departamentos que se encuentran interrelacionados por la información que comparten y que se genera a partir de sus procesos. Una ventaja de los ERP, tanto económica como técnica, es que la funcionalidad se encuentra dividida en módulos, los cuales pueden instalarse de acuerdo con los requerimientos del cliente. Ejemplo: ventas, materiales, finanzas, control de almacén, recursos humanos, etc.
Las características que distinguen a un ERP de cualquier otro software empresarial son que deben ser modulares, configurables y especializados:
Los beneficios que puede aportar una herramienta de ERP se resumen en la resolución de los problemas contables, mercantiles o fiscales de la empresa. Asimismo, puede permitir un mayor control del inmovilizado en el inventario permanente, conciliación bancaria, liquidación de impuestos, etc.
Eliminación de datos y operaciones innecesarias de reingeniería.
Posibilidad de compartir información entre todos los componentes de la organización.
Acceso a los datos y creación de información estructurada.
Automatización de los procesos entre las áreas de la empresa.
Planificación de los recursos.
Optimización de los procesos empresariales.
Unificación y trazabilidad de todos los procesos en un mismo sistema.
Los objetivos principales de los sistemas ERP son:
Las aplicaciones ERP son sistemas de gestión global para la empresa. Se caracterizan por estar compuestos por diferentes módulos. Estas partes son de diferente uso, por ejemplo: producción, ventas, compras, logística, contabilidad (de varios tipos), gestión de proyectos, GIS, inventarios y control de almacenes, pedidos, nóminas y un largo etc. Lo contrario sería como considerar un simple programa de facturación como un ERP por el simple hecho de que una empresa integre únicamente esa parte.
Los sistemas de planificación de recursos empresariales son sistemas de gestión de información que automatizan muchas de las prácticas de negocio asociadas con los aspectos operativos o productivos de una empresa. Una definición ampliada de ERP consiste en la unificación total de las operaciones en un mismo sistema; es decir, la trazabilidad de todos sus procesos. La carencia de la unificación total, limita y anula la posibilidad de planificar los recursos empresariales.
Los ERP de última generación tienden a implementar en sus circuitos abstracciones de la administración tales como MECAF (Método de Expresión de Circuitos Administrativos Formalizado) o FAN (Formalized Administrative Notation), los cuales brindan gran flexibilidad para describir diferentes circuitos usados en distintas empresas. Esto simplifica la regionalización y la adaptación de los ERP a diferentes mercados verticales.
Los ERP funcionaban ampliamente en las empresas. Entre sus módulos más comunes se encuentran el de manufactura o producción, almacenamiento, logística e información tecnológica, incluyen además la contabilidad, y suelen incluir un sistema de administración de recursos humanos, y herramientas de mercadotecnia y administración estratégica.
Los sistemas ERP son llamados ocasionalmente back office (trastienda) ya que indican que el cliente y el público general no tienen acceso a él; asimismo, es un sistema que trata directamente con los proveedores, no estableciendo una relación meramente de carácter administrativa con ellos (SRM). Posteriormente, el software ERP fue ocupando todos los espacios de la organización, absorbiendo las funciones del CRM. De hecho, las principales compañías productoras de CRM del mundo fueron absorbidas por empresas de software ERP en los últimos diez años.
Los sistemas ERP típicamente manejan la producción, logística, distribución, inventario, envíos, facturas y contabilidad de la compañía de forma modular.1​ Sin embargo, la planificación de recursos empresariales o el software ERP puede intervenir en el control de muchas actividades de negocios como ventas, entregas, pagos, producción, administración de inventarios, calidad de administración y la administración de recursos humanos.2​
La planificación de recursos empresariales es un término derivado de la planificación de recursos de manufactura (MRPII) y seguido de la planificación de requerimientos de material (MRP); sin embargo los ERP han evolucionado hacia modelos de suscripción por el uso del servicio (SaaS, cloud computing).
Plataforma ERP
Los sistemas de planificación de recursos empresariales (ERP, por sus siglas en inglés, enterprise resource planning) son los sistemas de información gerenciales que integran y manejan muchos de los negocios asociados con las operaciones de producción y de los aspectos de distribución de una compañía en la producción de bienes o servicios. Un ERP debería ser un sistema especializado que permita la unificación y organización de todas las áreas, es decir, ser un sistema que permita la trazabilidad de todos los procesos y por tanto, de paso a la planificación y optimización de los recursos.

Circunstancias que limitan la expansión de las tic

12. Número medio por alumnos de ordenador destinados preferentemente a la docencia con alumnos
11. Número medio de alumnos por ordenador destinados a tareas de enseñanza y aprendizaje
10. Fuente: Centro Menesiano Zamora Joven
9. Evolución de las TIC ► ► ► ► ► ► ► ► ► -Probablemente las TIC evolucionen de la siguiente forma: Progresivo aumento de los sistemas informáticos portátiles Progresiva difusión de las pantallas planas (TFT) Implantación de las tecnologías inalámbricas: ratón, teclado, impresoras, redes LAN... Omnipresencia de los accesos a Internet. Uso generalizado de los sistemas de banda ancha para las conexiones a Internet. Telefonía móvil de tercera generación UMTS, con imagen y conexiones gráficas a Internet. Suministros de software a través de Internet (se pagará según consumo, como la electricidad) Multiplicación de las actividades que realizaremos desde el ciberespacio: telebanco, telemedicina, ocio... Generalización de la "pizarra digital" en las aulas presenciales.
8. Más circunstancias ► - Barreras económicas: A pesar del progresivo abaratamiento de los equipos y programas informáticos, su precio aún resulta prohibitivo para muchas familias. Además, su rápido proceso de obsolescencia aconseja la renovación de los equipos y programas cada cuatro o cinco años. ► - Barreras culturales: el idioma dominante, el inglés, en el que vienen muchas referencias e informaciones de Internet ,hay muchas personas no lo conocen, la tradición en el uso de instrumentos tecnológicos avanzados (inexistente en muchos países poco desarrollados), etc.
7. Circunstancias que limitan la expansión de las TIC ► - Problemáticas técnicas: incompatibilidades entre diversos tipos de ordenador y sistemas operativos, el ancho de banda disponible para Internet la velocidad aún insuficiente de los procesadores para realizar algunas tareas ► - Falta de formación: la necesidad de unos conocimientos teóricos y prácticos que todas las personas deben aprender, la necesidad de aptitudes y actitudes favorables a la utilización de estas nuevas herramientas. ► - Problemas de seguridad: Circunstancias como el riesgo de que se produzcan accesos no autorizados a los ordenadores de las empresas que están conectados a Internet y el posible robo de los códigos de las tarjetas de crédito al comprar en las tiendas virtuales, frena la expansión del comercio electrónico y de un mayor aprovechamiento de las posibilidades de la Red.
6. Limitaciones de las TIC ► La expansión de las TIC en todos los ámbitos y estratos de nuestra sociedad se ha producido a gran velocidad, y es un proceso que continua ya que van apareciendo sin cesar nuevos elementos tecnológicos. a pesar de estas magníficas credenciales que hacen de las TIC, existen diversas circunstancias que dificultan su más amplia difusión entre todas las actividades y capas sociales. A continuación las nombraremos.
5. Internet: el elemento principal de las TIC ► De todos los elementos que integran las TIC, sin duda el más poderoso y revolucionario es Internet, que nos abre las puertas de una nueva era, la Era Internet, en la que se ubica la actual Sociedad de la Información. Internet nos proporciona un tercer mundo en el que podemos hacer casi todo lo que hacemos en el mundo real y además nos permite desarrollar nuevas actividades, muchas de ellas enriquecedoras para nuestra personalidad y forma de vida . Y es que ahora las personas podemos repartir el tiempo de nuestra vida interactuando en tres mundos: el mundo presencial, de naturaleza ,el mundo intrapersonal de la imaginación y el ciberespacio, de naturaleza virtual, constituido por bits, sin distancias.
4. Más aportaciones ► Interactividad. Los ordenadores nos permiten “dialogar” con programas de gestión, videojuegos, materiales formativos multimedia, sistemas expertos específicos... Esta interacción es una consecuencia de que los ordenadores sean máquinas programables y sea posible definir su comportamiento determinando las respuestas que deben dar ante las distintas acciones que realicen ante ellos los usuarios. ► ► Homogeneización de los códigos empleados para el registro de la información mediante la digitalización de todo tipo de información: textual, sonora, icónica y audiovisual. Con el uso de los equipos adecuados se puede captar cualquier información, procesarla y finalmente convertirla a cualquier formato para almacenarla o distribuirla. Instrumento cognitivo que potencia nuestras capacidades mentales y permite el desarrollo de nuevas maneras de pensar.
3. Aportaciones de las TIC ► Fácil acceso a todo tipo de información, sobre cualquier tema y en cualquier formato ,especialmente a través de la televisión e Internet pero también mediante el acceso a las numerosas colecciones de discos en soporte CD-ROM y DVD ► Instrumentos para todo tipo de proceso de datos. Los sistemas informáticos, integrados por ordenadores, periféricos y programas, nos permiten realizar cualquier tipo de proceso de datos de manera rápida y fiable Canales de comunicación inmediata, sincrónica y asíncrona, para difundir información y contactar con cualquier persona o institución del mundo mediante la edición y difusión de información ► Almacenamiento de grandes cantidades de información en pequeños soportes de fácil transporte (pendrives, discos duros portátiles, tarjetas de memoria...). ► Automatización de tareas, mediante la programación de las actividades que queremos que realicen los ordenadores, que constituyen el cerebro y el corazón de todas las TIC. ►
2. Las TIC ► ► ► ► Las Tecnologías de la Información y las Comunicación (TIC) forman parte de la cultura tecnológica que nos rodea y con la que debemos convivir. Amplían nuestras capacidades físicas y mentales. Y las posibilidades de desarrollo social. Incluimos en el concepto TIC no solamente la informática y sus tecnologías asociadas, telemática y multimedia, sino también los medios de comunicación de todo tipo: los medios de comunicación social y los medios de comunicación interpersonales tradicionales con soporte tecnológico como el teléfono, fax... Contribuyen a la rápida obsolescencia de los conocimientos y a la emergencia de nuevos valores, provocando continuas transformaciones en nuestras estructuras económicas, sociales y culturales, e incide en casi todos los aspectos de nuestra vida. Su gran impacto en todos los ámbitos de nuestra vida hace cada vez más difícil que podamos actuar eficientemente prescindiendo de ellas.
. APORTACIONES Y LIMITACIONES DE LAS TIC Por : Pablo Grande Germán

Problemáticas asociadas con las tic

Pensar en los puestos de trabajo que se necesitarán y preparar a la gente para ellos, contribuyendo así a evitar el desempleo y la exclusión social.
Tensión entre lo espiritual y lo material, ya que el mundo necesita ideales y valores.
Procurar que los nuevos medios contribuyan a difundir la cultura y el bienestar en todos los pueblos de la Tierra.
Los problemas de sostenibilidad a nivel del planeta.
Convertirnos en ciudadanos del mundo (y desarrollar una función social) sin perder nuestras raices (tensión entre lo mundial y lo local).
Ver de aprovechar los nuevos medios para resolver algunos de los problemas "irresolubles" hasta ahora: gran fracaso escolar, deficiente atención de las administraciones a los administrados...
La tensión entre tradición y modernidad: adaptarnos al cambio sin negarnos a nosotros mismos y perder nuestra autonomía.
Los nuevos códigos comunicativos, que debemos aprender para interpretar emitir mensajes en los nuevos medios.
La tensión entre el largo y el corto plazo en un momento en el que predomina lo efímero y se buscan rápidas soluciones pese a que muchos de los problemas requieren de estrategias a largo plazo.
Gestionar nuestra presencia en el ciberespacio.
En cualquier caso, no cabe duda que la sociedad de la información comporta nuevos retos para las personas, entre los que destacamos:
La necesidad de verificar la veracidad y actualidad de la información.
La inmensidad de la información disponible y la necesidad de organizar un sistema personal de fuentes informativas y tener unas técnicas y criterios de búsqueda y selección.
El cambio continuo, la rápida caducidad de la información y la necesidad de una formación permanente para adaptarse a los requerimientos de la vida profesional y para reestructurar el conocimiento personal.
Nuevos retos.
Hay que trabajar en aras de la "e-inclusión", entendida como el acceso a las tecnologías y adecuación a las necesidades de los colectivos más vulnerables. Para ello se debe escoger en cada caso la tecnología más apropiada a las necesidades locales, proporcionar una tecnología asequible económicamente a los usuarios, fomentar su uso preservando la identidad sociocultural y potenciando la integración de los grupos con riesgo de exclusión.
La "brecha digital" conlleva para los marginados perder una buena oportunidad para el desarrollo y para el progeso en todos los ámbitos, y retroalimenta otras brechas existentes aumentando las diferencias.
Según el informe del MCYT "la Sociedad de la Información en el siglo XXI: un requisito para el desarrollo", en lo que respecta a la creciente "brecha digital", que separa a los países y personas que tienen un buen acceso a las TIC y los que no tienen este acceso, aunque los países más pobres también incrementan su acceso a las TIC, los países desarrollados lo hacen mucho más rápidamente. Igualmente ocurre dentro de los países entre núcleos urbanos y rurales, clases sociales más altas y más bajas...
La responsabilidad de nuestras acciones en el ciberespacio.
Los límites de la virtualidad frente a la presencialidad.
La gestión de nuestro tiempo ante las enormes posibilidades y la enorme cantidad de información disponible.
La selección de la información adecuada: buscar, valorar...
Problemas relacionados con los idiomas.
La posibilidad de "falsificación de uno mismo", construcción de un "alter ego" en la red.
Las nuevas formas de adicción y dependencia a estas tecnologías.
La defensa del usuario ante materiales nocivos: filtros para los más jóvenes...
La vulnerabilidad de los sistemas informáticos, problemas de seguridad: transacciones económicas...
La posibilidad de anonimato al actuar en el ciberespacio, que permite la impunidad del trasgresor de las normas.
Necesidad de una alfabetización digital para integrarse en la nueva sociedad.
La privacidad de los propios espacios virtuales (correo electrónico, páginas web, etc).
La confidencialidad de los datos de los usuarios informáticos.
La propiedad intelectual de los programas informáticos y de los materiales que se colocan en Internet.
Los problemas éticos relacionados con la información que se difunde (Internet, mass media...) que requieren de una "ética mundial".
El coste de la adquisición de los equipos y programas.
La necesaria alfabetización en TIC de todos los ciudadanos.
Algunas problemáticas analizadas en una ponencia del Dr. Francesc Torralba.
Facilita el desarrollo de enormes empresas que operan globalmente, algunas mayores que algunos Estados.
Problemas de acceso a la intimidad, accesos no autrrorizados a la información.
La problemática que supone el exceso de información en al Red, que muchas veces es simplemente "basura" que contamina el medio dificultando su utilización.
Problemas derivados del libre acceso a la información en el ciberespacio.
La sensación de que la tecnología controla nuestra vida y es fuente de frustraciones (cuando no funciona adecuadamente).
La tecnología no significa necesariamente progreso; ofrece oportunidades pero también comporta nuevas problemáticas:
Dependencia tecnológica: creencia de que las tecnologías solucionarán todos nuestros problemas.
Grandes desigualdades, pues muchos no tienen acceso a las TIC (50% del la población mundial no ha usado nunca el teléfono). Aparece una nueva brecha tecnológica que genera exclusión social.

CRM

De acuerdo con Peppers y Rogers, «una empresa que se vuelca a sus clientes es una empresa que utiliza la información para obtener una ventaja competitiva y alcanzar el crecimiento y la rentabilidad. En su forma más generalizada, CRM puede ser considerado un conjunto de prácticas diseñadas, simplemente, para poner a una empresa en un contacto mucho más cercano con sus clientes. De este modo, aprender más acerca de cada uno, con el objetivo más amplio de que cada uno sea más valioso incrementando el valor de la empresa».3​
CRM como modelo de gestión de la empresa
Permitir la automatización: de la fuerza de ventas y las tareas de planificación a corto, mediano y largo plazo para cada cliente.
Optimizar el funcionamiento de la empresa: reduce el tiempo que se dedica a la gestión individualizada de correos electrónicos, llamadas y reuniones.
Facilitar la comunicación interna entre los empleados: La plataforma actúa como un medio de comunicación común que se actualiza en tiempo real y que puede ser consultado en todo momento.
Ejemplo de tres procesos que mejoran gracias a un CRM
Cada vez más el CRM debe ser extensible, para apoyar a la planificación de recursos empresariales funcionalidades como: la ingeniería, fabricación, compras, finanzas y gestión de servicios. Debido a que el CRM tradicional o el CRM estratégico, son una parte integral del ERP,2​ aportan información completa del cliente sobre el proyecto, las facturas, inventario, etc.
Procesos de gestión de servicios.
Configurar a pedido (CTO).
En la ingeniería bajo pedido (ETO).
Cuando el CRM está separado para gestionar el negocio, la gestión del ciclo de vida de las ventas y clientes es difícil o imposible; la gestión de ciclo de vida es muy importante ya que muchas empresas hoy en día interactúan con el cliente mucho tiempo después de que se realizó la venta, colaborando con ellos:
Funciones
Un aspecto importante del enfoque de CRM son los sistemas informáticos de CRM que recopilan datos de una variedad de canales de comunicación diferentes, incluidos el sitio web, el teléfono, el correo electrónico, el chat en vivo, los materiales de marketing y, más recientemente, las redes sociales de la compañía.1​ A través del enfoque de CRM y los diferentes sistemas que lo integran, las empresas aprenden más sobre sus audiencias objetivo y cómo atender mejor sus necesidades. Sin embargo, la adopción del enfoque de CRM también puede ocasionalmente, generar favoritismo entre una audiencia de consumidores, lo que resulta en insatisfacción entre los clientes y en derrotar el propósito de CRM.
El CRM es un enfoque para gestionar la interacción de una empresa con sus clientes actuales y potenciales, es una forma de pensar y de actuar de una empresa hacia los clientes/consumidores. Un CRM abarca a los sistemas que mantienen datos específicos con el fin de mantener la relación de los clientes con la empresa en todo momento. Utiliza el análisis de datos de la historia de los clientes con la empresa y para mejorar las relaciones comerciales con dichos clientes, centrándose específicamente en la retención de los mismos y, en última instancia, impulsando el crecimiento de las ventas.
Software para la administración o gestión de la relación con los clientes: Sistemas informáticos de apoyo a la gestión de las relaciones con los clientes, a la venta y al marketing, y que se integran en los llamados Sistemas de Gestión Empresarial (SGE), y que incluyen CRM, ERP, PLM, SCM y SRM. El software de CRM puede comprender varias funcionalidades para gestionar las ventas y los clientes de la empresa: automatización y promoción de ventas, tecnologías data warehouse («almacén de datos») para agregar la información transaccional y proporcionar capa de reporting, dashboards e indicadores claves de negocio, funcionalidades para seguimiento de campañas de marketing y gestión de oportunidades de negocio, capacidades predictivas y de proyección de ventas.
Administración o gestión basada en la relación con los clientes: un modelo de gestión de toda la organización, basada en la satisfacción del cliente (u orientación al mercado según otros autores). El concepto más cercano es marketing relacional (según se usa en España) y tiene mucha relación con otros conceptos, como clienting, marketing 1x1, marketing directo de base de datos, etc.
La Gestión o Administración de Relaciones con el Cliente (customer relationship management), más conocida por sus siglas en inglés CRM, puede tener varios significados:
Para otros usos de este término, véase CRM.

Empresa y educación

La innovación social vista en nuevos líderes digitales es una oportunidad para llevar a los Gobiernos personas capaces de lograr el equilibrio entre la cultura tecnológica, la política y lo social logrando la construcción y el desarrollo de la cultura digital en la sociedad.
El impacto de las TIC en los movimientos sociales es fundamental. Internet ha adquirido gran importancia como instrumento para concebir nuevas manifestaciones, organizaciones y movimientos sociales alrededor de causas en donde la regulación es dada por los individuos implicados. La red como catalizadora de cambios y revoluciones se pone sobre la mesa frente a manifestaciones que han usado Internet como válvula de escape contra regímenes políticos y sociales.
La cultura digital y los movimientos sociales
Cabe preguntarse qué competencias laborales deben tener los empleados de hoy, cómo la empresa debe afrontarlas y establecer pautas, normas y procedimientos que permita a los trabajadores interactuar con las redes sociales, optimizar tiempos, fortalecer competencias, capacitarse y ser más productivos; en donde se tengan en cuenta brechas tanto generacionales como de conocimiento frente a las TIC.
Las nuevas tecnologías no sólo están impactando las empresas, sino también las modalidades de trabajo. Hoy en día modelos como el teletrabajo brindan oportunidades laborales no sólo como una forma de laborar desde casa o fuera de la oficina, sino que también abren la posibilidad a personas con diferentes discapacidades de tener condiciones laborales deseables para su condición.
La empresa digital tiene múltiples ventajas y oportunidades, tanto en productividad como en inclusión, llevándola a agregar valor al negocio. Concentración de información en pocas manos, nuevos modelos económicos, reputación online y transparencia de las organizaciones, entre otros.
Cambios en la cultura empresarial
La educación es uno de los procesos con más oportunidades de crecimiento gracias a las tecnologías. Se habla de un gen o ADN digital que moldea a los estudiantes hacia el aprovechamiento máximo de las nuevas tecnologías y les permite adaptarse fácilmente a los entornos digitales y a la apropiación no sólo de las herramientas sino también de las formas de interactuar con el mundo. Son generaciones que evolucionan aceleradamente. El desafío más grande es cómo construir en los nativos digitales responsabilidad digital, valores y una ética sólida que les permita navegar en la nueva cultura digital sin exponerlos.
Las redes sociales, los dispositivos móviles y la oferta de posibilidades que ofrece la red para realizar actividades de la cotidianidad han logrado generar nuevos hábitos de uso y comportamiento sobre las TIC en todos los ámbitos de la sociedad. Sin embargo, existe el temor de caer en diferentes adicciones, así como de reemplazar espacios, entornos y personas por la vida digital. Es importante equilibrar estos aspectos para aprovechar los beneficios de la Red y no caer en una deshumanización de la sociedad como la conocemos.

Impacto de las tic en la sociedad

Para concluir, las TIC son medios que nos han facilitados muchas cosas n nuestro día a día, estamos viviendo en un siglo tecnológico; donde nos hemos visto en la obligación de actualizarnos constantemente con los cambios que ocurran con el transcurrir del tiempo. Estos cambios se han reflejado en todas las áreas laborales, educativas, de entretenimiento y personales viendo como resultado aspectos positivos de su influencia y su importancia. Por esto y mucho más, es que las personas hoy en día debemos aprender a utilizar las TIC, para aprovechar todo lo que estas nos brindan, y así sacarle el jugo como decimos los colombianos para poder plasmar ideas hacia un futuro que nos permita ver en nuestro país personas mejor preparadas y con aptitudes para ingresar a laborar a grandes empresas. Es aquí donde juega un rol importante la competitividad, ya que hoy en día es un pre-requisito saber usar las TIC e implementarlas en todo aquello que podamos, para así obtener mejores resultados.
Este déficit que cada día en Colombia se busca mejorar, ha promovido en las colombianos cierta competitividad en el proceso de aprendizaje hacia el manejo de estas, dando como resultado una sociedad que busca en cada momento salir adelante sin importar los obstáculos y las condiciones en las que se encuentre. Pero esto no lo es todo, para los estudiantes que aún no pueden acceder a estas herramientas, su proceso de aprendizaje se ve afectado, ya que los que viven alejados de una escuela, en una zona afectada por el conflicto armado o son víctimas del desplazamiento forzado no pueden acceder a información necesaria y básica para su educación, generando así problemas para un futuro mejor y digno que les permita ingresar a una educación de mayor nivel de excelencia y mejor calidad de vida.
Al igual que existen herramientas para los docentes, los estudiantes también cuentan con ellas: Wikipedia es un buscador de información aunque esta puede ser manipulada y de poca fiabilidad, Word, Excel y Power Point para la realización de trabajos, tablas, graficas estadísticas y presentaciones acerca de algún tema y las redes sociales como Facebook, Messenger, Twitter y Whatsapp como medio de comunicación para la socialización de diferentes temas. Cabe resaltar que el déficit para el acceso a estas tecnologías genera inestabilidad social y un bajo porcentaje al adquirir una mejoría en la calidad de vida de las personas, que en la actualidad buscan un trabajo y al no cumplir con requisitos que principalmente su función es basada en el uso de estas herramientas su futuro se vea afectado.
Para los maestros que hoy en día son parte de la nueva sociedad generadora de conocimiento por medio del uso de las TIC, existen algunas herramientas que les permiten desarrollar y compartir sus clases con los alumnos; estas son algunas: Dropbox que permite la sincronización de archivos y asi ser compartidos, Power Point como un software de presentación, Moodle como plataforma para organización de clases y gestión del curso, Movie Maker usada como editor de películas y por último los pizarrones interactivos que ayudan al profesor a que su clase se vuelva interesante e interactiva entre otras.
La influencia de las TIC en la educación, es de gran relevancia en la actualidad; dado que, la investigación científica y el desarrollo son la base de una sociedad de conocimiento. Por lo tanto no debe esto entenderse únicamente como la enseñanza de un empleo adecuado de estas, si no como desarrollador de capacidades autónomas en la sociedad, que apunten a mejorar las estrategias de enseñanza y aprendizaje. Además, la importancia que se le da al uso de las TIC en estos procesos anteriormente mencionados, permite mejorar la calidad por medio de la diversificación de contenidos y métodos, promover la experimentación, innovación, difusión y uso compartido de información y nuevas prácticas que estimulan la creación de programas que forma a los docentes y a los alumnos que acceden a ellas.
Bien, pareciera por todo lo anterior que las TIC son muy útiles para las personas, ya que facilitan procesos en sus vidas. Pero realmente ¿Qué tanto sabemos acerca de las ventajas y desventajas que nos ofrecen? Muy poco al parecer. Algunas ventajas que nos ofrecen en los procesos educativos son que se crean motivación e interés en el aula de clase, como interacción y continúa actividad, acceso a gran diversidad de información, programación del aprendizaje y el desarrollo de la iniciativa. Entre otras, por lo contrario las desventajas a las que a veces se llegan son que es una distracción si no se controla el uso, crean dispersión, genera pérdidas de tiempo, a veces es difícil el acceso porque se requiere de equipos que pueden ser costosos y para algunos estudiantes pueden parecer poco atractivo para el aprendizaje. Por eso la importancia de saber utilizar estos tipos de medios, porque son beneficiosos para nosotros en la medida que los sepamos utilizar, por lo contrario viceversa.
Al respecto conviene decir que las TIC sirven para el fácil acceso a la información en cualquier formato de manera simple y rápida. En este aspecto presenta cuatro características principales que son la inmaterialidad, en donde cabe recalcar que los medios digitales nos permiten disponer de información inmaterial, ya sea para almacenarla o para acceder a información ubicada en dispositivos lejanos. La instantaneidad nos proporciona la capacidad de adquirir información y comunicarnos de manera ágil aunque nos encontremos lejos de la fuente original. La interactividad faculta una comunicación bidireccional entre personas sin importar donde se encuentren. Por último, la automatización de actividades es el punto más importante porque facilita muchos aspectos de la vida de las personas permitiendo que en un día cotidiano se realicen ciertas laborales de una manera más sencilla y segura. Lo anteriormente expuesto, es la razón por la cual los colombianos cada día evolucionamos con las TIC, porque en ellas encontramos solución a muchos de nuestros problemas. Aunque, en ello también podemos crear problemas o situaciones adversas si no le damos el mejor uso.
Las TIC ofrecen varios servicios a los consumidores. Los más importantes son el correo electrónico, la búsqueda de información, la banca online, el audio y música, la televisión y el cine, el comercio electrónico, e-administración y e-gobierno, la e-sanidad, la educación, los videojuegos y los servicios móviles. En los últimos años han aparecido más servicios como los Peer to Peer (P2P), los blogs o las comunidades virtuales y escuelas de negocio que se especializan en impartir su formación.
A partir de su definición, podemos hablar sobre los tipos de TIC que existen. Realizando una clasificación en general, se dividen en redes y terminales; además de los servicios que estos ofrecen. Dentro de las redes incluimos la telefonía fija, la banda ancha, la telefonía móvil, las redes de televisión o las redes en el hogar. Dentro de las terminales existen varios dispositivos o terminales que forman parte de las TIC. Estos son el ordenador, el navegador de Internet, los sistemas operativos para ordenadores, los teléfonos móviles, los televisores, los reproductores portátiles de audio y video o las consolas de juego.
En primera instancia, mencionamos anteriormente, que las TIC son aquellos mecanismos y programas que confieren, transmiten y distribuyen la información mediante soportes tecnológicos como el internet. En la actualidad, según un estudio realizado por el DANE, el 40,4% de las personas encuestadas de algunas ciudades de Colombia utilizan el internet. Dado que es un medio que se utiliza con fines de comunicación, para obtener información y para llevar a cabo actividades de entretenimiento, sugieren un uso adecuado para cada necesidad.
Las TIC más conocidas como tecnologías de información y comunicación son actualmente el eje transversal en la vida de las personas de la sociedad colombiana. El objetivo de nuestro ensayo es analizar la influencia que tienen estas herramientas tan utilizadas por las personas y resaltar el impacto positivo como negativo que tienen en el sector educativo. Para empezar, hablaremos acerca de qué son y cuáles son los tipos de TIC existentes. Estas son herramientas y programas que permiten una fácil comunicación a través de la red y se clasifican en general; en redes y terminales, pero también por los servicios que estas prestan. Estos nuevos medios están siendo utilizados por estudiantes y maestros, ya que les facilita acceder y experimentar el conocimiento de una manera innovadora. Luego, analizaremos las ventajas y desventajas que estas herramientas proporcionan, el cual depende en su totalidad del uso que se les dé. También, se hará un análisis del impacto que han causado las TIC en el sector educativo y como estos medios facultan a los colombianos a adquirir un conocimiento más amplio que proporciona a largo plazo una mejor calidad de vida. Por último, trataremos el déficit en el sector educativo por ausencia de las TIC, dando a percibir como la falta de estos medios perjudica de alguna manera a los estudiantes del siglo XXI y así mismo, disminuye de cierta forma sus oportunidades competitivas a futuro. Por esto y muchos más, se debe conocer acerca de la influencia de las TIC en el sector educativo en Colombia.

Big data

Valor: los datos generados deben ser útiles, accionables y tener valor.32
Veracidad: la calidad de los datos capturados puede variar mucho y así afectar a los resultados del análisis.
Velocidad: en este contexto, la velocidad a la cual se generan y procesan los datos para cumplir las exigencias y desafíos de su análisis.
Variedad: el tipo y naturaleza de los datos para ayudar a las personas a analizar los datos y usar los resultados de forma eficaz. Los macrodatos usan textos, imágenes, audio y vídeo. También completan pedazos ¿Qué pedazos? pedidos a través de la fusión de datos.
Volumen: la cantidad de datos generados y guardados.
Los macrodatos se pueden describir por las siguientes características:31​
Por su parte, el Big Data usa estadísticas inductivas y conceptos de identificación de sistemas no lineales,29​ para inferir leyes (regresiones, relaciones no lineales y efectos causales) a partir de grandes conjuntos de datos con baja densidad de información, con la finalidad de revelar relaciones y dependencias, o para realizar predicciones de resultados y comportamientos.30​
La Business intelligence usa estadísticas descriptivas con datos con alta densidad de información para medir cosas, detectar tendencias, etc.
La creciente madurez del concepto describe de manera clara y bien nítida, la diferencia entre "Big Data (Datos a gran escala)" y "Business intelligence (Inteligencia empresarial)":
Una definición de 2018 establece que "Big Data es donde se necesitan herramientas informáticas paralelas para manejar los datos", y señala: "Esto representa un cambio distinto y claramente definido en la informática utilizada a través de teorías de programación paralelas y pérdidas de algunas de las garantías y capacidades hechas por el modelo relacional de Codd".28​
Huella digital: el Big Data es a menudo un subproducto libre de costo de la interacción digital.
Aprendizaje automático: los grandes datos a menudo no preguntan por qué y simplemente detectan los patrones.27​
Una definición de 2016 establece que "Big data representa los activos de información caracterizados por un volumen, velocidad y variedad tan altos que requieren una tecnología específica y métodos analíticos para su transformación en valor".24​ Además, algunas organizaciones agregan una nueva V, veracidad para describirlo,25​ revisionismo cuestionado por algunas autoridades de la industria.26​ Las tres V (volumen, variedad y velocidad) se han ampliado a otras características complementarias del big data:
En el 2001, en un informe de investigación que se fundamentaba en congresos y presentaciones relacionadas,22​ la META Group (ahora Gartner) definía el crecimiento constante de datos como una oportunidad y un reto para investigar en el volumen, la velocidad y la variedad. Gartner' continúa usando datos masivos como referencia.23​ Además, grandes proveedores del mercado de datos masivos están desarrollando soluciones para atender las demandas más críticas sobre cómo procesar tal cantidad de datos, como MapR y Cloudera.
Se ha definido también como datos lo suficientemente masivos como para poner de relieve cuestiones y preocupaciones en torno a la efectividad del anonimato desde una perspectiva más práctica que teórica.21​
El término ha estado en uso desde la década de 1990, y algunos otorgan crédito a John Mashey19​ por popularizarlo. Big data o macrodatos es un término que hace referencia a una cantidad de datos tal que supera la capacidad del software convencional para ser capturados, administrados y procesados en un tiempo razonable. El volumen de los datos masivos crece constantemente. En el 2012, se estimaba su tamaño de entre una docena de terabytes hasta varios petabyte de datos en un único conjunto de datos. En la metodología MIKE2.0, dedicada a investigar temas relacionados con la gestión de información, definen big data20​ en términos de permutaciones útiles, complejidad y dificultad para borrar registros individuales.
Los sistemas de gestión de bases de datos relacionales y los paquetes de software utilizados para visualizar datos, a menudo tienen dificultades para manejar big data. Este trabajo puede requerir "un software masivamente paralelo que se ejecute en decenas, cientos o incluso miles de servidores".17​ Lo que califica como "big data" varía según las capacidades de los usuarios y sus herramientas, y las capacidades de expansión hacen que big data sea un objetivo en movimiento. "Para algunas organizaciones, enfrentar cientos de gigabytes de datos por primera vez puede provocar la necesidad de reconsiderar las opciones de administración de datos. Para otros, puede tomar decenas o cientos de terabytes antes de que el tamaño de los datos se convierta en una consideración importante".18​
El límite superior de procesamiento ha ido creciendo a lo largo de los años.8​ Se estima que el mundo almacenó unos 5 zettabytes en 2014. Si se pone esta información en libros, convirtiendo las imágenes y todo eso a su equivalente en letras, se podría hacer 4500 pilas de libros que lleguen hasta el sol.9​ Los científicos con cierta regularidad encuentran límites en el análisis debido a la gran cantidad de datos en ciertas áreas, tales como la meteorología, la genómica,10​ la conectómica (una aproximación al estudio del cerebro; en inglés:Connectomics; en francés: Conectomique), las complejas simulaciones de procesos físicos11​ y las investigaciones relacionadas con los procesos biológicos y ambientales.12​ Las limitaciones también afectan a los motores de búsqueda en internet, a los sistemas de finanzas y a la informática de negocios. Los data sets crecen en volumen debido en parte a la recolección masiva de información procedente de los sensores inalámbricos y los dispositivos móviles (por ejemplo las VANET), el constante crecimiento de los históricos de aplicaciones (por ejemplo de los registros), las cámaras (sistemas de teledetección), los micrófonos, los lectores de identificación por radiofrecuencia.13​14​ La capacidad tecnológica per cápita a nivel mundial para almacenar datos se dobla aproximadamente cada cuarenta meses desde los años 1980.15​ Se estima que en 2012 cada día fueron creados cerca de 2.5 trillones de bytes de datos.16​
El uso moderno del término "big data" tiende a referirse al análisis del comportamiento del usuario, extrayendo valor de los datos almacenados, y formulando predicciones a través de los patrones observados. La disciplina dedicada a los datos masivos se enmarca en el sector de las tecnologías de la información y la comunicación. Esta disciplina se ocupa de todas las actividades relacionadas con los sistemas que manipulan grandes conjuntos de datos. Las dificultades más habituales vinculadas a la gestión de estos grandes volúmenes de datos, se centran en la recolección y el almacenamiento de los mismos,5​ en las búsquedas, las comparticiones, y los análisis,6​ y en las visualizaciones y representaciones. La tendencia a manipular enormes volúmenes de datos, se debe en muchos casos a la necesidad de incluir dicha información, para la creación de informes estadísticos y modelos predictivos utilizados en diversas materias, como los análisis sobre negocios, sobre publicidad, sobre enfermedades infecciosas, sobre el espionaje y el seguimiento a la población, o sobre la lucha contra el crimen organizado.7​
Los macrodatos,1​ también llamados datos masivos, inteligencia de datos, datos a gran escala o big data (terminología en idioma inglés utilizada comúnmente) es un término que hace referencia a conjuntos de datos tan grandes y complejos que precisan de aplicaciones informáticas no tradicionales de procesamiento de datos para tratarlos adecuadamente. Los datos son la reproducción simbólica de un atributo o variable cuantitativa o cualitativa; según la RAE «Información sobre algo concreto que permite su conocimiento exacto o sirve para deducir las consecuencias derivadas de un hecho».2​ Por ende, los procedimientos usados para encontrar patrones repetitivos dentro de esos datos son más sofisticados y requieren un software especializado. En textos científicos en español, con frecuencia se usa directamente el término en inglés big data, tal como aparece en el ensayo de Viktor Schönberger La revolución de los datos masivos.3​4​

Nanotecnología

Así, el surgimiento de la nanotecnología como un campo en la década de 1980 ocurrió por la convergencia del trabajo teórico y público de Drexler, quien desarrolló y popularizó un marco conceptual para la nanotecnología, y los avances experimentales de alta visibilidad que atrajeron atención adicional a amplia escala a los prospectos del control atómico de la materia.
Inspirado en los conceptos de Feynman, en forma independiente K. Eric Drexler usó el término "nanotecnología" en su libro del año 1986 Motores de la Creación: La Llegada de la Era de la Nanotecnología (en inglés: Engines of Creation: The Coming Era of Nanotechnology), en el que propuso la idea de un "ensamblador" a nanoescala que sería capaz de construir una copia de sí mismo y de otros elementos de complejidad arbitraria con un nivel de control atómico. También en el año 1986, Drexler co-fundó The Foresight Institute (en castellano: El Instituto de Estudios Prospectivos), con el cual ya no tiene relación, para ayudar a aumentar la conciencia y comprensión pública de los conceptos de la nanotecnología y sus implicaciones.
Comparaciones de los tamaños de los nanomateriales.
El ganador del premio Nobel de Física de 1965, Richard Feynman, fue el primero en hacer referencia a las posibilidades de la nanociencia y la nanotecnología en un discurso que dio en el Caltech (Instituto Tecnológico de California) el 29 de diciembre de 1959, titulado En el fondo hay espacio de sobra (There's Plenty of Room at the Bottom), en el que describe la posibilidad de la síntesis vía la manipulación directa de los átomos. El término "nanotecnología" fue usado por primera vez por Norio Taniguchi en el año 1974, aunque esto no es ampliamente conocido.
Artículo principal: Historia de la nanotecnología
La nanotecnología comprende el estudio, diseño, creación, síntesis, manipulación y aplicación de materiales, aparatos y sistemas funcionales a través del control de la materia a nanoescala, y la explotación de fenómenos y propiedades de la materia a nanoescala. Cuando se manipula la materia a escala tan minúscula, presenta fenómenos y propiedades totalmente nuevas. Por lo tanto, los científicos utilizan la nanotecnología para crear materiales, aparatos y sistemas novedosos y poco costosos con propiedades únicas. No obstante, la nanociencia es una disciplina dedicada al estudio de los fenómenos físicos, químicos y biológicos que ocurren a escala nanométrica. Actualmente existen muchos instrumentos y dispositivos de dimensiones y precisión nanométricas que facilitan este proceso.
Diferencia entre nanotecnología y nanociencia
Actualmente los científicos están debatiendo el futuro de las implicaciones de la nanotecnología. La nanotecnología puede ser capaz de crear nuevos materiales y dispositivos con un vasto alcance de aplicaciones, tales como en la medicina, electrónica, biomateriales y la producción de energía. Por otra parte, la nanotecnología hace surgir las mismas preocupaciones que cualquier nueva tecnología, incluyendo preocupaciones acerca de la toxicidad y el impacto ambiental de los nanomateriales,5​ y sus potenciales efectos en la economía global, así como especulaciones acerca de varios escenarios apocalípticos. Estas preocupaciones han llevado al debate entre varios grupos de defensa y gobiernos sobre si se requieren regulaciones especiales para la nanotecnología.
La nanotecnología definida por el tamaño es naturalmente un campo muy amplio, que incluye diferentes disciplinas de la ciencia tan diversas como la ciencia de superficies, química orgánica, biología molecular, física de los semiconductores, microfabricación, etc.4​ Las investigaciones y aplicaciones asociadas son igualmente diversas, yendo desde extensiones de la física de los dispositivos a nuevas aproximaciones completamente nuevas basadas en el autoensamblaje molecular, desde el desarrollo de nuevos materiales con dimensiones en las nanoescalas al control directo de la materia a escala atómica.
La nanotecnología es la manipulación de la materia a escala nanométrica. La más temprana y descripción de la nanotecnología1​2​ se refiere a la meta tecnológica particular de manipular en forma precisa los átomos y moléculas para la fabricación de productos a microescala, ahora también referida como nanotecnología molecular. Subsecuentemente una descripción más generalizada de la nanotecnología fue establecida por la Iniciativa Nanotecnológica Nacional, la que define la nanotecnología como la manipulación de la materia con al menos una dimensión del tamaño de entre 1 a 100 nanómetros. Esta definición refleja el hecho de que los efectos de la mecánica cuántica son importantes a esta escala del dominio cuántico y, así, la definición cambió desde una meta tecnológica particular a una categoría de investigación incluyendo todos los tipos de investigación y tecnologías que tienen que ver con las propiedades especiales de la materia que ocurren bajo cierto umbral de tamaño. Es común el uso de la forma plural de "nanotecnologías" así como "tecnologías de nanoescala" para referirse al amplio rango de investigaciones y aplicaciones cuyo tema en común es su tamaño. Debido a la variedad de potenciales aplicaciones (incluyendo aplicaciones industriales y militares), los gobiernos han invertido miles de millones de dólares en investigación de la nanotecnología. A través de su Iniciativa Nanotecnológica Nacional, Estados Unidos ha invertido 3700 millones de dólares. La Unión Europea ha invertido[cita requerida] 1200 millones y Japón 750 millones de dólares.3​

Televisor

La resolución en píxeles es la cantidad de puntos individuales llamados píxeles en una pantalla dada. Una resolución típica de 720x480 significa que la pantalla del televisor tiene 720 píxeles horizontales y 480 píxeles en el eje vertical. La resolución afecta a la nitidez de la imagen. Cuanto mayor es la resolución de una pantalla, mayor es su nitidez. La primera resolución tenía 48 líneas y cada una de las fábricas usaba sistemas diferentes. La estandarización de estos sistemas comienza en julio de 1941 cuando se logró el sistema NTSC, válido para todos los estados de Estados Unidos, de 325 líneas. Europa logró un sistema de 625 líneas al término de la guerra, Francia poseía uno propio de 819 líneas e Inglaterra mantuvo el suyo de 405 líneas. Posteriormente el sistema NTSC fue mejorado.
Resolución
Matriz de LED se ha convertido en una de las opciones para vídeo en exteriores y en estadios, desde el advenimiento de diodos electroluminiscentes ultraluminosos y sus circuitos respectivos. Los ledes permiten crear actualmente pantallas escalables ultragrandes que otras tecnologías existentes no pueden igualar. Además de tener un bajo consumo. Recientemente se ha tomado la iniciativa de aplicar esta tecnología a los televisores domésticos. Estos adquieren unas características diferentes a las de otros tipos de pantalla. El menor consumo respecto a las pantallas LCD, mayor durabilidad, menor grosor de la misma, así como mayor contraste son ejemplos de estas características. La empresa pionera en este ámbito comercial fue la surcoreana Samsung.
Pantalla de cristal líquido, de plasma u OLED: Los progresos actuales permiten fabricar televisores de pantalla plana que utilizan tecnología de cristal líquido de matriz activa (LCD), o plasma. Están preparados para la alta definición con resoluciones desde 1280×720 píxeles hasta los 3840x2160 píxeles. Estos televisores pueden tener solo unos milímetros de espesor en caso de las matrices OLED, y pueden colgarse en una pared como un cuadro o ser puestos sobre una base. Algunos modelos también pueden utilizarse como monitores de computadoras.
Proyección: Son televisores de gran pantalla, hasta 100 pulgadas de diagonal o más. Se usan tres tipos de sistemas de proyección: con TRC, con LCD, y DLP (con chip de microespejos). Los televisores de retroproyección existen desde la década de 1970, pero en aquella época no tenían la definición de un televisor común de rayos catódicos. Los modelos actuales han mejorado mucho, y ofrecen gran tamaño a un precio conveniente. Las pantallas de proyección no dan buen resultado a la luz de día o en habitaciones muy iluminadas, por lo que son más aptas para zonas oscurecidas.
Tubo de rayos catódicos o CRT: Las pantallas más comunes son tubos de visión directa con la que se logran hasta 37 pulgadas de diagonal. Hasta el año 2007, eran todavía las menos costosas, y se trataba de una tecnología madura que puede brindar una gran calidad de imagen. Dado que no tienen una resolución fija, aunque sí una resolución mínima, dada por la separación entre puntos, pueden mostrar fuentes de distintas resoluciones con la mejor calidad de imagen posible. La frecuencia de cuadro de un televisor NTSC es de 29,97 Hz, y de 25 Hz en el caso de televisores de la norma PAL. La resolución vertical visible de los televisores NTSC es de 480 líneas, y la de los PAL de 576 líneas. Los tubos de rayos catódicos eran bastante voluminosos y pesados; en la actualidad están siendo reemplazados por los formatos Plasma, LCD y más recientemente LED.
Gracias a los avances en la tecnología de pantallas, hay ahora varias clases en los televisores modernos:
1:interruptor de encendido y volumen. 2:brillo. 3:tono. 4:sincronía vertical. 5:sincronía horizontal. 6:contraste. 7:sintonización de canales. 8:conmutador de canales
OT-1471 Belweder, Polonia, 1957.
Tipos
Los cambios rápidos en las imágenes deben ser realizados de tal forma que no supongan retardos y distorsiones o perdida de resolución. Para ello los tiempos de persistencia y de histéresis de los elementos generadores de la imagen son importantísimos. Los tiempos de activación y desactivación de los elementos lumínicos son fundamentales para una correcta representación de la imagen en movimiento. Estos tiempos no solo dependen de la tecnología de la pantalla sino también del procesado de la señal. El concepto de tiempo de cambio entre dos niveles de grises, en inglés grey-to-grey switching speed, es el que determina este parámentro.3​
La televisión es un sistema de transmisión de imágenes en movimiento. El tiempo de respuesta de las pantallas de reproducción de las imágenes es fundamental para la fidelidad de lo reproducido.
Rápido tiempo de respuesta
Los sistemas de plasma y LCD tienen una respuesta no lineal y con una relación de contraste muy pobre lo que hace que su ancho dinámico sea pequeño. La tecnología OLED logra un buen resultado.
Desde el apagado absoluto que nos proporciona un negro real hasta el encendido a pleno brillo para un blanco, tenemos toda la gama de niveles a reproducir. La linealidad, muy crítica en los extremos, de los elementos que las diferentes tecnologías utilizan para la representación de la imagen es la que da cuerpo al rango dinámico. Los tubos de rayos catódicos mantienen una curva característica, denominada ganma, que se debía de compensar (se hace en la emisora) para lograr una respuesta lineal óptima.
Para que una imagen pueda verse clara y nítida se deben poder reproducir todos los niveles de luz contenidos en la misma. Niveles de luz que en la mezcla de los tres colores básicos dan toda la gama de colores que se deben representar.
Anchura del rango dinámico
Este fenómeno, muy relacionado con la reproducción real de los negros, precisa de sistemas de reproducción muy lineales en el extremo de baja luminancia. Las tecnologías de plasma y LCD no tienen estas características por su propia base tecnológica, que en el TRC se podían encontrar con eficiencia suficiente y que la tecnología OLED, por el mismo motivo que el expuesto anteriormente, cubre de una manera eficiente.
La reproducción del color en imágenes con áreas de muy poca luminancia es uno de los puntos más difíciles para la reproducción de una imagen. En un sistema de TV el color surge de la mezcla de tres luces correspondientes a tres colores diferentes (denominados "colores primarios" : rojo, verde y azul). Los escasos niveles de luminancia hacen que esa mezcla no pueda ser correcta al caer en las zonas no lineales de los emisores de luz.
Reproducción del color en niveles bajos de luz
Los TRC tienen un nivel mínimo de excitación de los luninofósforos que proporcionan un negro aceptable. No ocurre lo mismo en los plasmas y menos aún en las pantallas LCD, que precisan retroiluminación, lo que hace que no se logre nunca tener la pantalla oscura. La tecnología OLED, al ser cada píxel un emisor individual, puede reproducir una gama de negros muy reales, ya que se logra apagar totalmente el emisor.
La dificultad de la reproducción del negro verdadero es una de las áreas más comprometidas en la representación de una imagen en una pantalla de televisión. Los bajos niveles de luminancia que generan los negros, o grises muy oscuros, son difíciles de conseguir debido la utilización de retroiluminación o niveles de cebado de los plasmas. Las áreas oscuras de las imágenes representadas carecen de rango en los negros, quedando estos anulados (convertidos en grises) entre unos niveles y otros, dando lugar a artificios y ruido.
Reproducción de negro verdadero
La representación de una imagen en cualquiera de las tecnologías usadas para la pantalla de los televisores y monitores tiene cuatro áreas críticas a salvar, donde los resultados obtenidos son relevantes para la calidad final lograda. Estas áreas son:
Áreas críticas en la representación de una imagen
Se han desarrollado también sistemas de representación en 3D (tres dimensiones) y mejoras en el sonido. Los televisores llegan a poder mostrar varias imágenes o contenidos diferentes a la vez en sus pantallas y a poder realizar grabaciones de contenidos sin necesidad de elementos externos.
A finales de la primera década del siglo XXI, con el desarrollo de Internet aparecen los televisores conectables y se comienza a hablar de la «televisión híbrida», que comparte la recepción convencional con el acceso a la red de redes para visualizar contenidos audiovisuales o de cualquier otro tipo abriendo nuevas áreas de servicio.
El tubo de imagen fue sustituido por pantallas de tecnología de plasma, LCD, LCD retroiluminado con led y OLED, a la par que los sistemas de transmisión se cambiaban a sistemas digitales, bien mediante la distribución por cable, satélite o la distribución terrestre mediante la TDT.
La electrónica de los televisores ha ido evolucionando conforme avanzaba la electrónica en general. Los primeros televisores usaban tubos al vacío y luego transistores. Más recientemente se empezaron a usar circuitos integrados, desarrollándose algunos circuitos ex proceso para las funciones específicas del televisor. A finales del siglo XX comenzaron a desarrollarse pantallas de reproducción de imagen que no usaban el TRC. En la primera década del siglo XXI el tubo desapareció, dando paso a televisores con pantallas planas de diferentes tecnologías, que aún no logrando una calidad de imagen similar a la lograda por el TRC, permitían hacer unos aparatos de volumen mucho menor, casi sin fondo, y de unas líneas estéticas muy atractivas que fueron copando el mercado mientras los fabricantes dejaban de producir televisores con tubo de imagen.
En la década de 1970, los televisores en color fueron ampliamente difundidos y empezaron a comercializarse en los países desarrollados. La premisa de compatibilidad con los sistemas monocromáticos permitió que ambos tipos de televisores convivieran de forma armoniosa hasta nuestros días.
Ya en las épocas tempranas del CRT se empezaron a idear sistemas de transmisión en color, pero no fue hasta el desarrollo de los tubos de rayos catódicos con tres cañones, que se empezaron a fabricar masivamente televisores en color totalmente electrónicos.
Se estima que antes de la II Guerra Mundial se fabricaron en el Reino Unido unos 19 000 aparatos y en Alemania unos 1600.
El primer televisor totalmente electrónico (sin elementos mecánicos para generación de la imagen) con tubo de rayos catódicos fue manufacturado por Telefunken en Alemania en 1934, seguido de otros fabricantes en Francia (1936), el Reino Unido (1936) y los Estados Unidos (1938).
El sistema mecánico fue pronto desplazado por el uso del CRT (tubo de rayos catódicos) como elemento generador de imágenes, que permitía alcanzar mejores resoluciones y velocidades de exploración. Además, al no tener elementos mecánicos, el tiempo de vida útil era mucho mayor.
La televisión mecánica fue comercializada desde 1928 hasta 1934 en el Reino Unido, Estados Unidos y la URSS. Los primeros televisores comerciales vendidos por Baird en el Reino Unido en 1928 fueron radios que venían con un aditamento para televisión consistente en un tubo de Neón detrás de un disco de Nipkow y producían una imagen del tamaño de una estampilla, ampliada al doble por una lente. El "televisor" Baird estaba también disponible sin la radio. El televisor vendido entre 1930 y 1933 es considerado el primer televisor comercial, alcanzando varios miles de unidades vendidas.
Los primeros televisores que se pueden considerar comerciales fueron de tipo mecánico y se basaban en un disco giratorio, el disco de Nipkow (patentado por el ingeniero alemán Paul Nipkow en 1884), que contenía una serie de agujeros dispuestos en espiral y que permitían realizar una exploración "línea por línea" a una imagen fuertemente iluminada. La resolución de los primeros sistemas mecánicos era de 30 líneas a 12 cuadros pero fueron posteriormente mejoradas hasta alcanzar cientos de líneas de resolución e inclusive incluir color.
Primeros televisores del mundo
WEGA KDL-S19A10. Televisor LCD de la compañía Sony.
El televisor es la parte final del sistema de televisión, el cual comienza con la captación de las imágenes y sonidos en origen, y su emisión y difusión por diferentes medios. El televisor se ha convertido en un aparato electrodoméstico habitual, cotidiano y normal con amplia presencia en los hogares de todo el mundo. El primer televisor comercial fue creado el 26 de enero de 1926 por el escocés John Logie Baird.
El televisor,1​tele2​ o TV es un aparato electrónico destinado a la recepción y reproducción de señales de televisión. Usualmente consta de una pantalla y mandos o controles. La palabra viene del griego τῆλε (tēle, ‘lejos’), y el latín visōr (agente de videre, ‘ver’).

Realidad virtual

En las aplicaciones de realidad virtual, el intercambio de diferentes cantidades físicas entre el usuario y el entorno virtual se produce a través de diferentes canales o modalidades. Tales modalidades pueden ser sonido, visión o tacto. La comunicación con múltiples modalidades se llama interacción multimodal. La interacción multimodal permite que varios tipos de modalidades se intercambien simultáneamente entre el usuario y el entorno virtual. El objetivo de la aplicación de la interacción multimodal es proporcionar una imagen completa y realista de la situación, para proporcionar información redundante, por ejemplo, por razones de seguridad, y para aumentar la calidad de la presencia
Importancia de la multimodalidad
La realidad virtual comprende dos elementos principales: el entorno del usuario y el entorno virtual. Mientras el usuario interactúa con el sistema de realidad virtual, los dos entornos se comunican e intercambian información a través de una barrera llamada interfaz. La interfaz puede considerarse como un traductor entre el usuario y el sistema de realidad virtual. Cuando el usuario aplica acciones de entrada (por ejemplo, movimiento, generación de fuerza, voz, etc.), la interfaz traduce estas acciones en señales digitales, que pueden ser procesadas e interpretadas por el sistema. Por otro lado, las reacciones calculadas del sistema también se traducen por la interfaz en cantidades físicas, que el usuario puede percibir mediante el uso de diferentes tecnologías de pantalla y actuador (por ejemplo, imágenes, sonidos, olores, etc.). Finalmente, el usuario interpreta esta información y reacciona al sistema en consecuencia.12​
Componentes principales
Principios de la Realidad Virtual
El uso del casco de realidad virtual (HMD) permite a los usuarios percibir imágenes 3D estereoscópicas y determinar la posición espacial en el entorno visual a través de sensores de seguimiento de movimiento en el casco. Mientras tanto, los usuarios pueden escuchar sonidos por los auriculares e interactuar con objetos virtuales utilizando dispositivos de entrada como joysticks, varillas y guantes de datos. Como resultado, los usuarios sienten que pueden mirar a su alrededor y moverse a través del entorno simulado.11​
Los aspectos psicológicos de la experiencia de realidad virtual son un área de investigación activa. No está del todo claro cuáles son los factores en una simulación que pueden producir reacciones específicas del usuario en términos de respuesta emocional, participación y grado de interés. Uno de los conceptos más importantes que nos ayuda a entender la psicología de la experiencia de realidad virtual es el "sentido de presencia".
Los sistemas no immersivos han ganado popularidad debido a su menor costo, facilidad de uso y facilidad de instalación. A veces se llaman sistemas de realidad virtual basados ​​en escritorio; los ejemplos más representativos son los videojuegos. La buena combinación de interactividad, facilidad de uso y gráficos y sonido atractivos puede generar en los usuarios un gran nivel de interés y participación en la simulación. Pocos sistemas de realidad virtual pueden competir con un buen videojuego en términos de aislar psicológicamente al usuario del mundo y producir fuertes respuestas emocionales.
Sistemas semi-inmersivos, como el CAVE diseñado por Cruz-Neira et al. en 1992,10​ proporciona sonido 3D y gráficos de alta resolución. Una CAVE es un lugar de trabajo multiusuario rodeado de pantallas donde se proyecta el mundo virtual. Las imágenes se muestran de acuerdo con la posición y la dirección de la mirada del usuario principal. Para obtener información adicional acerca de los sistemas CAVE, consulte la Sección 7.2.5. En general, los sistemas semi-inmersivos permiten que varios usuarios compartan la simulación; esto abre posibilidades interesantes para el trabajo colaborativo.
En contraste con la presencia, la inmersión generalmente se define como una característica cuantificable del sistema, que describe la capacidad de un sistema para mostrar un entorno generado artificialmente de forma que se aproxime a la experiencia real. Las características de los sistemas altamente inmersivos son la interacción en tiempo real, la visión estereoscópica, la alta velocidad de cuadro y la resolución, y múltiples pantallas (visual, auditiva y háptica).9​
Este tipo de definiciones siguen una metáfora del transporte, ya que el usuario percibe estar en un lugar diferente. Además de considerar la presencia como transporte, el concepto puede definirse como riqueza social cuando se utiliza para la interacción humano-humana en las organizaciones, como el grado de realismo del entorno mostrado o como grado de inmersión. Al tratar de encontrar un denominador común para todas estas definiciones, se sugirió una definición general de presencia como "ilusión perceptual de no mediación".8​
En uso general, la presencia se define como "el hecho o condición de estar presente; el estado de estar con o en el mismo lugar que una persona o cosa; asistencia, compañía, sociedad o asociación ", 5​ aunque la presencia también tiene significados diferentes. A principios de la década de 1990, el término presencia se usaba cada vez más para describir la experiencia subjetiva de los participantes en un entorno virtual. Una definición que se usa con mayor frecuencia para entornos virtualmente generados es la de "estar en un lugar o entorno, incluso cuando uno se encuentra físicamente en otro".6​ o, más brevemente, "estar allí".7​
Presencia e inmersión
El término realidad virtual (RV) se popularizó a finales de la década de 1980 por Jaron Lanier, uno de los pioneros del campo. Al mismo tiempo, también apareció el término Realidad Artificial (RA). 1​ En 1982 el término ciberespacio fue acuñado en una novela por W. Gibson ("Burning Chrome"). La Enciclopedia Británica describe la realidad virtual como "el uso del modelado y la simulación por computadora que permite a una persona interactuar con un entorno sensorial tridimensional (3D) artificial u otro entorno sensorial". 2​ Además, establece que "las aplicaciones de realidad virtual sumergen al usuario en un entorno generado por computadora que simula la realidad mediante el uso de dispositivos interactivos, que envían y reciben información y se usan como gafas, auriculares, guantes o trajes para el cuerpo". 3​ Por ejemplo, un usuario que usa una pantalla montada en la cabeza con un sistema de proyección estereoscópica puede ver imágenes animadas de un entorno virtual. Un término importante es presencia o telepresencia, que se puede describir como una ilusión de "estar allí".4​
Definición
a realidad virtual (RV) es un entorno de escenas u objetos simulados de apariencia real. La acepción más común refiere a un entorno generado mediante tecnología informática, que crea en el usuario la sensación de estar inmerso en él. Dicho entorno es contemplado por el usuario a través de un dispositivo conocido como gafas o casco de realidad virtual. Este puede ir acompañado de otros dispositivos, como guantes o trajes especiales, que permiten una mayor interacción con el entorno así como la percepción de diferentes estímulos que intensifican la sensación de realidad.

Consola de videojuegos

Una posterior actualización de la consola Odyssey 100, la 200, llevaba incorporada una pantalla de puntuación, permitía hasta 4 jugadores, y se vendía junto con un tercer juego: Smash. Casi simultáneamente, la cadena de centros comerciales Sears compró los derechos del sistema Atari Pong y lo introdujeron en el mercado de consumo bajo el nombre de Sears-Telegames. Al igual que en el mercado arcade, el mercado pronto fue inundado por consolas clones de Pong y juegos derivados.
Si bien los primeros juegos de computadora aparecieron en la década de los 1960, éstos utilizaban pantallas vectoriales, no de vídeo analógico. No fue hasta 1972 cuando se lanzó la primera videoconsola de sobremesa por la compañía electrónica Magnavox.1​ La Magnavox Odyssey, fue creada por Ralph Baer, considerado como el padre de los videojuegos.2​ La Odyssey tuvo un moderado éxito, sin embargo, con el lanzamiento del juego arcade Pong de Atari, comenzaron a popularizarse los videojuegos, el público comenzó a mostrar interés ante la nueva industria. En el otoño de 1975, la compañía Magnavox, cede ante la popularidad del Pong, se cancela el proyecto Odyssey, ya que el público solo jugaba al Pong y Hockey en la Odyssey 100.
Artículo principal: Videoconsolas de primera generación
Primera generación
En las videoconsolas de reciente generación ya no solo depende la potencia de la unidad CPU sino también del procesador gráfico GPU que es el procesador encargado del manejo de gráficos en la consola. Cada componente tiene una determinada cantidad de bits y velocidad.
Las primeras videoconsolas que aparecieron en el mercado tenían un procesador de 8 bits. A partir de la segunda generación algunos fabricantes ya presentaban equipos de 16 bits. A partir de esta cantidad, se fueron realizando las siguientes generaciones de consolas. Una consola de generación superior no tiene que poseer necesariamente un procesador de ancho de bus de datos de más bits, al contrario que la creencia popular que piensa que en cada generación se dobla el número de la anterior, ya que la potencia de un procesador está determinada además de por su ancho de bus por su estructura y velocidad.
En la industria de los videojuegos, las videoconsolas han sido clasificadas en distintas generaciones. Esta clasificación la determina su tiempo de lanzamiento y la tecnología existente en ese momento. Las empresas fabricantes lanzan una nueva consola en determinado tiempo (que puede variar entre 5 o 6 años). Por otro lado, algunas generaciones están señaladas por un número determinado de bits, los cuales determinan el ancho de bus del procesador, (de la segunda generación hasta la sexta generación).
Los videojuegos pueden presentarse en forma de cartuchos de plástico que protegen una placa con chips en los que está almacenado el software, o también en disquete (como en Commodore 64), tarjeta de memorias, disco compactos (como en el caso de PlayStation, Sega Saturn), discos GD-ROM (en el caso de Sega Dreamcast), discos "GOD" (en el caso de Nintendo GameCube), DVD (como en PlayStation 2, Wii, Xbox, Xbox 360), Blu-ray (en el caso de la PlayStation 3, Xbox One, PlayStation 4), o Blu-ray Ultra HD (en el caso de PlayStation 5, Xbox Series X). El DVD-ROM y el BD-ROM son los que se han impuesto como estándar en las videoconsolas de séptima generación. El formato cartucho se utilizaba básicamente para videoconsolas portátiles o en generaciones pasadas de videojuegos, siendo las últimas más destacables la Nintendo 64 y Game Boy Advance. A la fecha diciembre de 1373899, PlayStation Portable usa UMD, formato propietario de Sony, Nintendo DS, Nintendo 3DS y Nintendo Switch utilizan dispositivos portátiles de tarjetas SD.
Una videoconsola es un pequeño sistema electrónico que está diseñado para ejecutar juegos desarrollados en una computadora o servidor. Al igual que las computadoras, pueden adoptar diferentes formas y tamaños; de este modo, pueden ser de sobremesa, es decir, requieren ser conectadas a un televisor para la visualización del videojuego, y a la red eléctrica para su alimentación, en la cual suelen consumir 12 voltios, o bien el dispositivo electrónico videoconsola portátil, que cuenta con una pantalla de visualización integrada y una fuente de alimentación propia (baterías o pilas).
Los primeros sistemas de videoconsolas fueron diseñados únicamente para jugar videojuegos pero a partir de la quinta generación de videoconsolas han sido incorporadas características importantes de multimedia, internet, tiendas virtuales y servicio en línea como: Nintendo Network, PlayStation Network, y Xbox Live.
Una video consola o consola de video juegos es un sistema electrónico de entretenimiento que ejecuta videojuegos contenidos en cartuchos, discos ópticos, discos magnéticos, tarjetas de memoria o cualquier dispositivo de almacenamiento.

Derecho de autor

Los primeros casos que se recogen en leyes sobre el derecho de copia provienen de la antigua Irlanda. El Cathach es el manuscrito irlandés más antiguo existente de los Salmos (principios del siglo VII) y el ejemplo más antiguo de la literatura irlandesa. Contiene una Vulgata de los Salmos XXX (10) al CV (13), y es una versión con una indicación de interpretación o de partida antes de cada salmo. Tradicionalmente se atribuye su creación a san Columba como el copista, y dicha copia se hizo de forma extraordinaria en una sola noche a toda prisa gracias a una luz milagrosa, de un salterio prestado a San Columba por san Finnian. Surgió una controversia sobre la propiedad de la copia, y el rey Diarmait Mac Cerbhaill dictó la siguiente frase: «A cada vaca le pertenece su cría; por lo tanto, a cada libro le pertenece su copia».2​
Luego de la aparición de la imprenta, se facilitó la distribución y copia masiva de las obras, y posteriormente surgió la necesidad de proteger las obras no como objetos materiales, sino como fuentes de propiedad intelectual.
Desde los orígenes de la humanidad, las obras no tuvieron prohibiciones de copia, de reproducción ni de edición. Es posible mencionar casos tan antiguos como el arte rupestre, creado hace 40 milenios en la Cueva de El Castillo en España, o el Poema de Gilgamesh, desarrollado desde hace cuatro milenios por los sumerios, escrito y preservado hace 2650 años gracias al rey asirio Asurbanipal.
Artículo principal: Historia de los derechos de autor
Historia
Una obra pasa al dominio público cuando los derechos patrimoniales han expirado. Esto sucede habitualmente transcurrido un plazo desde la muerte del autor (post mortem auctoris). El plazo mínimo, a nivel mundial, es de 50 años y está establecido en el Convenio de Berna. Muchos países han extendido ese plazo ampliamente. Por ejemplo, en el Derecho europeo, son 70 años desde la muerte del autor; en México son 100 años. Una vez pasado ese tiempo, dicha obra entonces puede ser utilizada en forma libre, respetando los derechos morales.
En el derecho literario, comprende el derecho de las historias basadas en hechos o personajes reales, los personajes tienen derecho a leer la obra, mientras es escrita.
En el derecho anglosajón, se utiliza la noción de copyright (traducido literalmente como ‘derecho de copia’) que —por lo general— comprende la parte patrimonial de los derechos de autor (derechos patrimoniales).
Se reconoce que los derechos de autor son uno de los derechos humanos fundamentales en la Declaración Universal de los Derechos Humanos.1​
El derecho de autor es un conjunto de normas jurídicas y principios que afirman los derechos morales y patrimoniales que la ley concede a los autores (los derechos de autor), por el simple hecho de la creación de una obra literaria, artística, musical, científica o didáctica, esté publicada o inédita. La legislación sobre derechos de autor en Occidente se inicia en 1710 gracias al Estatuto de la Reina Ana.
El símbolo del copyright, “©”, se usa para indicar que una obra está sujeta al derecho de autor.
Para el derecho de autor en Wikipedia, véase Wikipedia:Derechos de autor.

Internet de las cosas

El servicio touchatag de Alcatel-Lucent y el gadget Violeta Mirror pueden proporcionar un enfoque de orientación pragmática a los consumidores de la internet de las cosas, por el que cualquiera puede enlazar elementos del mundo real al mundo en línea utilizando las etiquetas RFID (y códigos QR, en el caso de touchatag).
A la fecha de este artículo, el término internet de las cosas se usa con una denotación de conexión avanzada de dispositivos, sistemas y servicios que va más allá del tradicional M2M (máquina a máquina) y abarca una amplia variedad de protocolos, dominios y aplicaciones. 17​19​
La empresa estadounidense Cisco, que es quien está detrás de la iniciativa de la internet de las cosas, ha creado un “contador de conexiones” dinámico que le permite estimar el número de “cosas” conectadas desde julio del 2013 hasta 2020.16​La conexión de dispositivos a la red a través de señales de radio de baja potencia es el campo de estudio más activo de la internet de las cosas. Este hecho explica por qué las señales de este tipo no necesitan wi-fi ni bluetooth. Sin embargo, se están investigando distintas alternativas que necesitan menos energía y que resultan más económicas, con el nombre Chirp Networks.17​18​
Se calcula que todo ser humano está rodeado, al menos, por un total de aproximadamente 1000 a 5000 objetos.10​11​ Por un lado, según la empresa Gartner, en 202012​ habrá en el mundo aproximadamente 26 mil millones de dispositivos con un sistema de conexión al internet de las cosas.13​ Abi Research, por otro lado, afirma que para el mismo año existirán 30 mil millones de dispositivos inalámbricos conectados a internet.14​ Con la próxima generación de aplicaciones de internet (protocolo IPv6) se podrían identificar todos los objetos, algo que no se podía hacer con IPv4. Este sistema sería capaz de identificar instantáneamente por medio de un código a cualquier tipo de objeto.15​
Por ejemplo, si los libros, termostatos, refrigeradores, la paquetería, lámparas, botiquines, partes automotrices, entre otros, estuvieran conectados a internet y equipados con dispositivos de identificación, no existirían, en teoría, artículos fuera de stock o medicinas caducas; sabríamos exactamente la ubicación, cómo se consumen en el mundo; el extravío pasaría a ser cosa del pasado, y sabríamos qué está encendido y qué está apagado en todo momento.9​
El concepto de internet de las cosas fue propuesto en 1999, por Kevin Ashton, en el Auto-ID Center del MIT,7​ en donde se realizaban investigaciones en el campo de la identificación por radiofrecuencia en red (RFID) y tecnologías de sensores.8​
Constituye un cambio radical en la calidad de vida de las personas en la sociedad, ofrece una gran cantidad de nuevas oportunidades de acceso a datos, servicios específicos en la educación, seguridad, asistencia sanitaria y en el transporte, entre otros campos.
La internet de las cosas (en inglés, Internet of things, abreviado IoT;1​ IdC, por sus siglas en español)2​ es un concepto que se refiere a una interconexión digital de objetos cotidianos con internet.3​4​ Es, en definitiva, la conexión de internet más con objetos que con personas.2​ También se suele conocer como internet de todas las cosas o internet en las cosas. Si los objetos de la vida cotidiana tuvieran incorporadas etiquetas de radio, podrían ser identificados y gestionados por otros equipos de la misma manera que si lo fuesen por seres humanos.5​6​

Teletrabajo

Realidad aumentada

Teletrabajo Móvil: Trabajadores que utilizan dispositivos móviles para ejecutar sus tareas. Su actividad laboral les permite ausentarse con frecuencia de la oficina. No tienen un lugar definido para ejecutar sus tareas.
Teletrabajo Autónomo: Trabajadores independientes o empleados que se valen de las TIC para el desarrollo de sus tareas, ejecutándolas desde cualquier lugar elegido por él.
Teletrabajo Suplementario: Trabajadores con contrato laboral que alternan sus tareas en distintos días de la semana entre la empresa y un lugar fuera de ella usando las TIC para dar cumplimiento. Se entiende que teletrabajan al menos dos días a la semana.
En Colombia, Ley 1221 de 2008 establece tres modalidades de teletrabajo o tipo de teletrabajador, que responden a los espacios de ejecución del trabajo, las tareas a ejecutar y el perfil del trabajador.
La reglamentación del teletrabajo en Colombia
Según la Ley 1221 de 2008 (Decreto reglamentario 0884 de 2012) el Teletrabajo es una forma de organización laboral que consiste en el desempeño de actividades remuneraras o prestación de servicios a terceros utilizando como soporte las tecnologías de información y comunicación para el contacto entre el trabajador y la empresa, sin requerirse la presencia física del trabajador en sitio específico de trabajo.
La realidad mixta es una combinación de la realidad virtual y aumentada. En esta se combinan y superponen secuencias en tiempo real dentro del contenido de realidad virtual, se produce una traslación del mundo real al virtual creando un modelado 3D de la realidad.
La realidad aumentada ofrece imágenes superpuestas al entorno real, y lo que se observa es una mezcla entre elementos reales y virtuales. Los elementos no alteran su posición, puesto que éstos son reales. Con la realidad aumentada se diferencian los elementos creados y los reales.
La realidad virtual, da la posibilidad de adentrarse en los espacios virtuales, con el uso de unas gafas de realidad virtual. Lo que se puede ver está creado por un ordenador y la posición de los objetos cambia durante todo el proceso.
Al ser tecnologías en pleno desarrollo, se mezclan y confunden. Presentan similitudes, aunque también diferencias. Se diferencian en:8​
Diferencias entre realidad virtual y aumentada
Milgram's Continuum
- La otra gran diferencia entre las tres se encuentra en los dispositivos necesarios para su uso. Mientras la realidad virtual y la realidad mixta necesitan de un elemento aportado por el individuo, como unas gafas o un dispositivo específico, en el caso de la realidad aumentada bastaría una aplicación en el móvil o tablet.
- La realidad virtual (RV) construye un mundo nuevo en el que nos sumergimos, mientras que en la realidad aumentada nuestro propio mundo se convierte en el soporte. Todo se produce en un entorno real, y gracias a la cámara y la pantalla de un dispositivo podremos ver elementos que no están presentes en el mundo real y, también, interactuar con los mismos. Por su parte, la realidad mixta (RM) es un híbrido entre la RV y la RA que permite crear nuevos espacios en los que interactúan tanto objetos y/o personas reales como virtuales.
Destacar también que hay varias diferencias entre la realidad aumentada, la realidad virtual y la realidad mixta.6​ Entre estas diferencias se pueden destacar las siguientes:7​
Cabe mencionar que la realidad aumentada puede confundirse con la realidad virtual, pero la diferencia es que esta última se aísla de lo real y es claramente virtual. En cambio, la RA, como se ha dicho previamente, mezcla lo real y lo virtual.5​
Otra de las definiciones de realidad aumentada sugiere que el entorno real y el entorno virtual están mezclados y pueden usarse desde varios dispositivos que van desde ordenadores hasta dispositivos móviles.
La realidad aumentada también supone la incorporación de datos e información digital en un entorno real por medio del reconocimiento de patrones que se realiza mediante un software. En otras palabras, es una herramienta interactiva que está dando sus primeros pasos alrededor del mundo y que en unos años se verá en todas partes, corriendo y avanzando, sorprendiendo y alcanzando todas las disciplinas: videojuegos, medios masivos de comunicación, arquitectura, educación, televisión (gafas 3D), turismo, literatura, cine e incluso, en la medicina. Llevará un mundo digital inimaginable al entorno real.
Además, la realidad de Milgram-Virtuality Continuum es como un continuo que abarca desde el entorno real a un entorno virtual puro. En el medio hay realidad aumentada —está más cerca del entorno real— y virtualidad aumentada —está más cerca del entorno virtual—. Por tanto, la realidad aumentada es una herramienta que integra la percepción e interacción con el mundo real y permite al interesado estar en un contexto real aumentado con información adicional sobre un objeto generada por el ordenador u otros dispositivos móviles. 4​
Está registrada en 3D.
Es interactiva en tiempo real —véase Interactividad—.
Combina elementos reales y virtuales.
Una de las definiciones dice que la realidad aumentada:
En torno a 1992, Tom Caudell2​ acuñó el término realidad aumentada, sucediéndose posteriormente medios y definiciones relativos a ella.3​
a realidad aumentada (RA) es el término que se usa para describir al conjunto de tecnologías que permiten que un usuario visualice parte del mundo real a través de un dispositivo tecnológico con información gráfica añadida por este. El dispositivo, o conjunto de dispositivos, añaden información virtual a la información física ya existente, es decir, una parte virtual aparece en la realidad. De esta manera los elementos físicos tangibles se combinan con elementos virtuales, creando así una realidad aumentada en tiempo real.1​

Deep web

En su artículo, Bergman citó la entrevista que Frank García hizo a Ellsworth en 1996:14​
Bergman, en un artículo semanal sobre la Web profunda publicado en el Journal of Electronic Publishing, mencionó que Jill Ellsworth utilizó el término «Web invisible» en 1994 para referirse a los sitios web que no están registrados por ningún motor de búsqueda.13​
La Web profunda se refiere a la colección de sitios o bases de datos que un buscador común, como Google o Bing no pueden o no quieren indexar. Es un lugar específico del internet que se distingue por el anonimato. Nada que se haga en esta zona puede ser asociado con la identidad de uno, a menos que uno lo desee.12​
Denominación
Páginas no enlazadas: páginas de cuya existencia no tienen referencia los buscadores; por ejemplo, páginas que no tienen enlaces desde otras páginas.
Software: Contenido oculto intencionadamente, que requiere un programa o protocolo específico para poder acceder (ejemplos: Tor, I2P, Freenet)
Contenido no HTML: contenido textual en archivos multimedia, otras extensiones como exe, rar, zip, etc.
Contenido de acceso restringido: páginas protegidas con contraseña, contenido protegido por un Captcha, etc.
Contenido dinámico: páginas dinámicas obtenidas como respuesta a parámetros, por ejemplo, datos enviados a través de un formulario.
Web contextual: páginas cuyo contenido varía dependiendo del contexto (por ejemplo, la dirección IP del cliente, de las visitas anteriores, etc).
Documentos o información oculta: Archivos pdf que no se encuentran en las páginas indexadas, listas de datos no públicas (sobre todo los ciber-criminales).
Motivos por los que los motores de búsqueda no pueden indexar algunas páginas:
Motivos
La Association for Computing Machinery (ACM) publicó en 2007 que Google y Yahoo indexaban el 32 % de los objetos de la internet profunda, y MSN tenía la cobertura más pequeña con el 11 %. Sin embargo, la cobertura de los tres motores era de 37 %, lo que indicaba que estaban indexando casi los mismos objetos.11​
Estimaciones basadas en la extrapolación de un estudio de la Universidad de California en Berkeley especula que actualmente la internet profunda debe tener unos 91 000 terabytes.10​
También en 2010 se estimó que existían más de 200 000 sitios en la internet profunda.9​
En 2010 se estimó que la información que se encuentra en la internet profunda es de 7500 terabytes, lo que equivale a aproximadamente 550 billones de documentos individuales. En comparación, se estima que la internet superficial contiene solo 19 terabytes de contenido y un billón de documentos individuales.
Mientras que las páginas normales son identificadas mediante el protocolo UDP/IP, las páginas .onion son repetidas por el ramal al que se ha conectado el navegador especializado para tal sistema de navegación segura. El sistema de búsqueda es el mismo que usa BitTorrent. El contenido se coloca en una base de datos y se proporciona solamente cuando lo solicite el usuario.8​
El internet se ve dividido en dos ramas, la internet profunda y la superficial. La internet superficial se compone de páginas indexadas en servidores DNS con una alfabetización y codificación de página perfectamente entendible por los motores de búsqueda, mientras que la internet profunda está compuesta de páginas cuyos dominios están registrados con extensiones .onion y los nombres de los dominios están codificados en una trama hash. Estas páginas se sirven de forma ad hoc, y no necesitan registrarse, basta con que tu ordenador tenga funcionando un servicio onion, que hará las veces de un servicio dns, pero especial para las páginas del internet profundo. Mediante una red P2P, se replican las bases de datos que contienen la resolución de nombres hash.
La internet profunda es un conjunto de sitios web y bases de datos que buscadores comunes no pueden encontrar ya que no están indexadas. El contenido que se puede hallar dentro de la internet profunda es muy amplio.7​
Tamaño
Una parte de la "internet profunda" consiste en redes internas de instituciones científicas y académicas que forman la denominada Academic Invisible Web: («Internet académica invisible»), la cual se refiere a las bases de datos que contienen avances tecnológicos, publicaciones científicas y material académico en general a los cuales no se pueden acceder fácilmente.6​
La internet profunda no es una región prohibida o mística de internet ni la tecnología relacionada con ella es necesariamente conspirativa, peligrosa o ilegal. En ella se alberga todo tipo de recursos a los que es difícil de acceder mediante métodos comunes como los motores de búsqueda populares.
En la Deep Web pueden establecerse contactos que no son monitoreados, nadie está allí observando. Además las transferencias tanto de mercancía como de pagos son prácticamente imposibles de rastrear. La web está dividida en dos partes, la web superficial y la web profunda. Esta última es la que se conoce como Deep Web, donde se ubica todo contenido que no es indexable por los buscadores, o al que los usuarios no pueden acceder mediante un buscador web como DuckDuckGo, Startpage, Yandex, Ecosia, Yahoo!, Google o Bing.
La principal causa de la existencia de la internet profunda es la imposibilidad de los motores de búsqueda (ejemplo: Google, Yahoo y Bing, y otros) de encontrar o indexar gran parte de la información existente en Internet. Si los buscadores tuvieran la capacidad para acceder a toda la información entonces la magnitud de la «internet profunda» se reduciría casi en su totalidad. No obstante, aunque los motores de búsqueda pudieran indexar la información de la internet profunda esto no significaría que esta dejara de existir, ya que siempre existirán las páginas privadas. Los motores de búsqueda no pueden acceder a la información de estas páginas y solo determinados usuarios, aquellos con contraseñas o códigos especiales, pueden hacerlo.
Origen

Redes peer to peer

Las instituciones académicas también han comenzado la experimentación con compartición de archivos, como es el caso de LionShare.
Actualmente existen varios sistemas software similares que se desarrollan bajo el auspicio de proyectos como el proyecto de Dispositivos Unidos en la Investigación del Cáncer (United Devices Cancer Research Project). En una escala más pequeña, existen sistemas de administración autónoma para los biólogos computacionales, como el Chinook, que se unen para ejecutar y hacer comparaciones de datos bioinformáticos con los más de 25 diferentes servicios de análisis que ofrece. Uno de sus propósitos consiste en facilitar el intercambio de técnicas de análisis dentro de una comunidad local.
Las redes P2P pueden usarse también para hacer funcionar grandes sistemas de software diseñados para realizar pruebas que identifiquen la presencia de posibles fármacos. El primer sistema diseñado con tal propósito se desarrolló en el 2001, en el Centro Computacional para el Descubrimiento de Medicamentos (Centre for Computational Drug Discovery) en la prestigiosa Universidad de Oxford y con la cooperación de la Fundación Nacional para la Investigación del Cáncer (National Foundation for Cancer Research) de los Estados Unidos.
Representación gráfica de un enjambre que muestra la distribución de los peers con sus respectivas trasmisiones y recepciones de datos dentro de un torrent en Vuze.
Grabadores de sistemas de CCTV que transmiten las imágenes a usuarios conectados desde celulares y computadores en ISP con puertos bloqueados. DVR
Monedas virtuales para transacciones entre partes. Bitcoin
Cálculos científicos que procesen enormes bases de datos, como los procedimientos bioinformáticos.
A partir del año 2006, cada vez más compañías europeas y norteamericanas, como Warner Bros o la BBC, empezaron a ver el P2P como una alternativa a la distribución convencional de películas y programas de televisión, y ofrecen parte de sus contenidos a través de tecnologías como la de BitTorrent.2​
Sistemas de telefonía por Internet, como versiones anteriores de Skype.
Sistemas para proporcionar cierto grado de anonimato, como i2p, Tarzan P2P o MorphMix. Este tipo de tecnologías forman parte de la llamada red oscura y constituyen el llamado peer-to-peer anónimo.
Sistemas de ficheros distribuidos, como CFS o Freenet.
Intercambio y búsqueda de ficheros. Quizás sea la aplicación más extendida de este tipo de redes. Algunos ejemplos son BitTorrent o emule (de la red eDonkey2000) .
Algunos ejemplos de aplicación de las redes P2P son los siguientes:
Actualmente, en Internet el ancho de banda o las capacidades de almacenamiento y cómputo son recursos caros. En aquellas aplicaciones y servicios que requieran una enorme cantidad de recursos pueden usarse las redes P2P.
Aplicaciones de las redes P2P
En mayo de 1999, con millones de personas más en Internet, Shawn Fanning introdujo la aplicación para compartir música y archivos llamada Napster.1​ Napster fue el comienzo de las redes peer-to-peer, como las conocemos hoy en día, donde "los usuarios que participan pueden establecer una red virtual, totalmente independiente de la red física, sin tener que obedecer a cualquier autoridad administrativa o restricciones".1​
La eficacia de los nodos en el enlace y transmisión de datos puede variar según su configuración local (cortafuegos, NAT, ruteadores, etc.), velocidad de proceso, disponibilidad de ancho de banda de su conexión a la red y capacidad de almacenamiento en disco.
Dichas redes son útiles para diversos propósitos. A menudo se usan para compartir ficheros (archivos) de cualquier tipo (por ejemplo, audio, vídeo o software). Este tipo de red también suele usarse en telefonía VoIP para hacer más eficiente la transmisión de datos en tiempo real.
Las redes peer-to-peer aprovechan, administran y optimizan el uso del ancho de banda de los demás usuarios de la red por medio de la conectividad entre los mismos, y obtienen así más rendimiento en las conexiones y transferencias que con algunos métodos centralizados convencionales, donde una cantidad relativamente pequeña de servidores provee el total del ancho de banda y recursos compartidos para un servicio o aplicación.
El hecho de que sirvan para compartir e intercambiar información de forma directa entre dos o más usuarios ha propiciado que parte de los usuarios lo utilicen para intercambiar archivos cuyo contenido está sujeto a las leyes de derechos de autor, lo que ha generado una gran polémica entre defensores y detractores de estos sistemas.
Normalmente este tipo de redes se implementan como redes superpuestas construidas en la capa de aplicación de redes públicas como Internet.
Una red peer-to-peer, red de pares, red entre iguales o red entre pares (P2P, por sus siglas en inglés) es una red de ordenadores en la que todos o algunos aspectos funcionan sin clientes ni servidores fijos, sino una serie de nodos que se comportan como iguales entre sí. Es más, actúan simultáneamente como clientes y servidores respecto a los demás nodos de la red. Las redes P2P permiten el intercambio directo de información, en cualquier formato, entre los ordenadores interconectados.

Informatica forense

3- Registros parcialmente generados y almacenados en los equipos de tecnología informática (ej. consultas en bases de datos)
2- Registros generados por equipos de tecnología informática (ej. transacciones, registros en eventos)
1- Registros almacenados en el equipo de tecnología informática (ej. imágenes y correos)
Estas evidencias se pueden dividir en tres categorías:2​
Categorías
5- Facilidad de eliminación
4- Alterabilidad
3- Facilidad de duplicación
2- Anonimato
1- Volatilidad
Estas evidencias comparten una serie de características que dificultan el ejercicio de la computación forense:2​
Características
Los discos duros, las memorias USB y las impresoras (entre otros elementos) se pueden considerar evidencias en un proceso legal al igual que las huellas digitales o las armas. Las evidencias digitales son las que se extraen de un medio informático.
Evidencia digital
Es importante mencionar que quienes se dedican a esto deben ser profesionales con altos niveles de ética, pues gracias a su trabajo se toman decisiones sobre los hechos y casos analizados.
Estos objetivos se alcanzan de varias formas, siendo la principal la recopilación de evidencias.
La creación y aplicación de medidas para prevenir casos similares.
La persecución y procesamiento judicial de los criminales.
La compensación de los daños causados por los intrusos o criminales.
La informática forense tiene tres objetivos:
Objetivos de la informática forense
Es una forma de aplicar los conceptos y procedimientos de la criminalística a los medios informáticos o digitales. Tiene como fin apoyar a la justicia en el contexto de la inseguridad informática ─es decir, la perpetración de posibles delitos─ al aclarar temas relacionados con incidentes o fraudes.
Ciencia forense digital (digital forensics):
Trata las operaciones de redes de computadores, estableciendo rastros e identificando movimientos y acciones. Es necesario entender los protocolos, configuraciones e infraestructura de las comunicaciones. A diferencia de la computación forense, es necesario poder establecer relaciones entre eventos diferentes e incluso aleatorios.
Ciencia forense en las redes (network forensics):
Disciplina científica que a partir de la comprensión de las tecnologías y de los equipos de computación ofrece un análisis de la información que contienen. (Centrada en la tecnología).1​
Disciplina de la ciencia forense que considera los procedimientos en relación con las evidencias para descubrir e interpretar la información en los medios informáticos con el fin de establecer hipótesis o hechos relacionados con un caso. (Centrada en las consideraciones forenses).1​
Computación forense (computer forensics)
Existen diferentes términos referentes a la ciencia forense en informática. Cada uno de estos términos trata de manera particular o general temas que son de interés para las ciencias forenses.1​
Definiciones
Índice
Es muy importante mencionar que la informática o cómputo forense no tiene como objetivo prevenir delitos, por lo que resulta imprescindible tener claros los distintos marcos de actuación de la informática forense, la seguridad informática y la auditoría informática.
Dentro del proceso del cómputo forense, un examinador forense digital puede llegar a recuperar información que haya sido borrada desde el sistema operativo. El informático forense debe tener muy presente el principio de intercambio de Locard por su importancia en el análisis criminalístico, así como el estándar de Daubert para hacer admisibles las pruebas presentadas por el perito forense en un juicio.
La evidencia digital o electrónica es sumamente frágil, de ahí la importancia de mantener su integridad. El simple hecho de pulsar dos veces en un archivo modificaría la última fecha de acceso del mismo.
La informática forense ayuda a detectar pistas sobre ataques informáticos, robo de información, conversaciones o evidencias en correos electrónicos y chats.
Esta disciplina no sólo hace uso de tecnologías de punta para mantener la integridad de los datos y del procesamiento de los mismos; sino que también requiere de una especialización y conocimientos avanzados en materia de informática y sistemas para poder detectar qué ha sucedido dentro de cualquier dispositivo electrónico. La formación del informático forense abarca no sólo el conocimiento del software sino también de hardware, redes, seguridad, piratería, craqueo y recuperación de información.
Dichas técnicas incluyen reconstruir elementos informáticos, examinar datos residuales, autenticar datos y explicar las características técnicas del uso de datos y bienes informáticos.
El cómputo forense, también llamado informática forense, computación forense, análisis forense digital o examen forense digital es la aplicación de técnicas científicas y analíticas especializadas a infraestructuras tecnológicas que permiten identificar, preservar, analizar y presentar datos válidos dentro de un proceso legal.