TIC

PAGINA WEEB

r

DEFINICIÓN DEPÁGINA WEBSe conoce como página web al documento que forma parte de un sitio web y que suele contar con enlaces (también conocidos como hipervínculos o links) para facilitar la navegación entre los contenidos.Las páginas web están desarrolladas con lenguajes de marcado como el HTML, que pueden ser interpretados por los navegadores. De esta forma, las páginas pueden presentar información en distintos formatos (texto, imágenes, sonidos, videos, animaciones), estar asociadas a datos de estilo o contar con aplicaciones interactivas.Entre las múltiples características que tiene una página web y que sirven para identificarla se encuentran las siguientes: cuenta con información textual y también con material de tipo audiovisual, está dotada de un diseño atractivo, está optimizada y ejerce como la tarjeta de presentación de una empresa, una persona o un profesional concreto.En los últimos años, dado el avance y presencia que tiene Internet en nuestras vidas, muchas son las empresas que se han puesto en marcha y han creado su página web. Y es que han descubierto que la misma les sirve para darse a conocer al mundo, para conseguir captar nuevos clientes y, por tanto, para mejorar sus resultados económicos.En este sentido, es importante saber que para poder conseguir que dicho espacio en la Red sea absolutamente efectivo y permita alcanzar los citados objetivos hay que tener en cuenta una serie de criterios fundamentales:Tiene que tener un diseño atractivo para poder llamar la atención del usuario y conseguir que navegue por ella. En este sentido, ese atractivo se conseguirá ofreciendo información de calidad así como materiales de diversa índole tales como animaciones, vídeos, imágenes…Es vital que se realice con ella las consabidas tareas de estrategia SEO y de optimización. Sólo de esa manera se logrará que la misma sea visible y conocida.Tiene que incluir enlaces tanto a distintos apartados de la misma página web como a otros espacios que pueden resultar de gran interés para el usuario.Debe ser fácilmente navegable. Sólo de esta manera se conseguirá que el internauta vuelva a visitarla.Es posible distinguir entre las páginas web estáticas (cuyos contenidos son predeterminados) y las páginas web dinámicas (que generan contenidos al momento de solicitar información a un servidor de web a través de lenguajes interpretados como JavaScript).Un conjunto de páginas web, por lo tanto, forman un sitio web. Las páginas suelen estar reunidas bajo un dominio común para que el sitio en cuestión sea accesible desde una misma dirección en Internet.La inmensa totalidad de páginas que forman los sitios web dan lugar a lo que se conoce como World Wide Web, Web, Red o, simplemente, Internet, que es el universo virtual donde está reunida la información digital del ciberespacio.

a

CORREO ELECTRONICO

r

DEFINICIÓN DECORREO ELECTRÓNICOEl correo electrónico (también conocido como e-mail, un término inglés derivado de electronic mail) es un servicio que permite el intercambio de mensajes a través de sistemas de comunicación electrónicos. El concepto se utiliza principalmente para denominar al sistema que brinda este servicio vía Internet mediante el protocolo SMTP (Simple Mail Transfer Protocol), pero también permite nombrar a otros sistemas similares que utilicen distintas tecnologías. Los mensajes de correo electrónico posibilitan el envío, además de texto, de cualquier tipo de documento digital (imágenes, videos, audios, etc.).El funcionamiento del correo electrónico es similar al del correo postal. Ambos permiten enviar y recibir mensajes, que llegan a destino gracias a la existencia de una dirección. El correo electrónico también tiene sus propios buzones: son los servidores que guardan temporalmente los mensajes hasta que el destinatario los revisa.El estadounidense Ray Tomlinson fue quien incorporó el arroba (@) a las direcciones de correo electrónico, con la intención de separar el nombre del usuario y el servidor en el que se aloja la casilla de correo. La explicación es sencilla: @, en inglés, se pronuncia at y significa “en”. Por ejemplo: carlos@servidor.com se lee carlos at servidor.com (o sea, carlos en servidor.com).Además de todo lo expuesto tenemos que dar a conocer además cual es la estructura básica que tiene cualquier correo electrónico. Así, nos encontramos con los siguientes elementos básicos:El destinatario. En esta casilla llamada “Para”, se pueden incluir tanto una como varias direcciones de personas a las que se les va a enviar dicho correo. Además se otorga la oportunidad de que esas direcciones que se van a incluir no sean visibles por el resto de personas que las reciben.El asunto. Es el apartado donde de manera breve y escueta debe aparecer el tema sobre el que gira el correo electrónico.El mensaje. En dicho apartado, de gran amplitud, es donde se escribe el mensaje que desea enviar. Para que dicho texto esté, estéticamente hablando, tal y como deseamos se ofrecen herramientas con las que elegir el tipo de letra, la alineación, el color, hipervínculos e incluso emoticonos.No obstante, tampoco podemos pasar por alto que a la hora de enviar un correo electrónico también y además del citado texto, y tal como hemos subrayado anteriormente, podemos incorporar diversos materiales o archivos. Eso supone que podamos adjuntar tanto documentos de diversa tipología (textos, hojas de cálculo, base de datos, pdf…) como fotografías e incluso vídeos.Luego, quien reciba dicho email tiene distintas posibilidades. Así, no sólo podrá leerlo y responderle al emisor del mismo sino que también podrá reenviarlo a otros destinatarios, archivarlo, borrarlo de manera permanente, marcarlo, añadirle etiquetas y también catalogarlo como spam.El servicio de correo electrónico se ofrece bajo dos modalidades: el conocido como correo web o webmail, donde los mensajes se envían y reciben a través de una página web diseñada especialmente para ello; y el servicio mediante un cliente de correo electrónico, que es un programa que permite gestionar los mensajes recibidos y redactar nuevos.DE

a

BUSQUEDAD DE INFORMACION

r

Nuestra política de privacidad cambiará el 24 de mayo de 2018Más informaciónBúsqueda y recuperación de informaciónPara el concepto psicológico, véase Recuperación (memoria).La Búsqueda y Recuperación de Información, llamada en inglés Information Search and Retrieval (ISR), es la ciencia de la búsqueda de información en documentos electrónicos y cualquier tipo de colección documental digital, encargada de la búsqueda dentro de éstos mismos, búsqueda de metadatos que describan documentos, o también la búsqueda en bases de datos relacionales, ya sea a través de internet, una intranet, y como objetivo realiza la recuperación en textos, imágenes, sonido o datos de otras características, de manera pertinente y relevante.La recuperación de información es un estudio interdisciplinario. Cubre tantas disciplinas que eso genera normalmente un conocimiento parcial desde tan solo una u otra perspectiva. Algunas de las disciplinas que se ocupan de estos estudios son la psicología cognitiva, la arquitectura de la información, diseño de la información, inteligencia artificial, lingüística, semiótica, informática, biblioteconomía, archivística y documentación.Para alcanzar su objetivo de recuperación se sustenta en los sistemas de información, y al ser de carácter multidisciplinario intervienen bibliotecólogos para determinar criterio de búsqueda, la relevancia y pertinencia de los términos, en conjunto con la informática.Índice  [ocultar] 1Historia2Presentación3Medidas de rendimiento y correctitud3.1Precisión3.2Exhaustividad3.3Proposición de fallo3.4Medida F3.5Precisión Promedio3.6Media de la precisión promedio4Tipos de Modelos4.1Primera Dimensión: Base Matemática4.2Segunda Dimensión: Propiedades de los Modelos5Bibliografía6ReferenciasHistoria[editar]La idea del uso de computadoras para la búsqueda de trozos relevantes de información se popularizó a raíz de un artículo As We May Think de Vannevar Bush en el año 1945.1​ Los primeros sistemas automatizados de recuperación de la información fueron presentados durante la década de 1950 a 1960. Durante 1970 se paralizaronn pruebas un grupo de textos como la colección Cranfield para un gran número de distintas técnicas cuyo rendimiento fue bueno.1​ Los sistemas de recuperación a larga escala, como el Sistema de Diálogo Lockheed, comenzaron a utilizarse a principios de 1970.En 1992, el Departamento de Defensa de los Estados Unidos conjuntamente con el Instituto Nacional de Estándares y Tecnología (NIST por su sigla en inglés), patrocinaron la Conferencia de Recuperación de Texto (TREC) como parte del programa TIPSTER. Esto proveyó ayuda desde la comunidad de recuperación de la información al suministrar la infraestructura necesaria para la evaluación de metodologías de recuperación de texto en una colección a larga escala. La introducción de motores de búsqueda ha elevado aún más la necesidad de sistemas de recuperación con mayor capacidad.El uso de métodos digitales para almacenar y recuperar información ha desembocado en el denominado fenómeno de la obsolescencia digital, que sucede cuando una fuente digital deja de ser accesible porque sus medio físico, el lector utilizado para la lectura de ese medio o el software que lo controla, ya no se encuentra disponible. La información, inicialmente es más fácil de recuperar en lugar de su fuente en papel, pero dicha información entonces, se pierde definitivamente.Los buscadores, tales como Google, Google Desktop Search, Lycos y Copernic, son algunas de las aplicaciones más populares para la recuperación de información. Básicamente hay que construir un Vocabulario, que es una lista de términos en lenguaje natural, un algoritmo que incluya las reglas lógicas de la búsqueda {Tabla de verdad} y una valoración de los resultados o cantidad de información lograda o posible. Este motor de búsqueda es pues el que permite plantear una pregunta con no menos de dos términos (en algunos casos pueden ser menos de dos términos) y mostrar los resultados mínimos y el logaritmo natural de las interacciones será alrededor de 789Algunos de los estudiosos más destacados dentro de esta subdisciplina son Gerard Salton, W Bruce Croft, Karen Spärck Jones, Keith van Rijsbergen y Ricardo Baeza-Yates.A veces se plantean ciertos problemas a la hora de recuperar información provocados por el uso del lenguaje natural (entre otras razones) como el silencio (debido a la sinonimia), el ruido (debido a la polisemia), homografía, ambigüedad, etc.Presentación[editar]Un proceso de recuperación de información comienza cuando un usuario hace una consulta al sistema. Una consulta a su vez es una afirmación formal de la necesidad de una información. En la recuperación de información una consulta no identifica únicamente a un objeto dentro de la colección. De hecho varios objetos pueden ser respuesta a una consulta con diferentes grados de relevancia.Un objeto es una identidad que está representada por información en una base de datos. En dependencia de la aplicación estos objetos pueden ser archivos de texto, imágenes, audio, mapas, videos, etc. Muy a menudo los documentos no están almacenados en el sistema de recuperación de información, sino que están representados lógicamente.La mayoría de los sistemas de recuperación de información computan un ranking para saber cuán bien cada objeto responde a la consulta, ordenando los objetos de acuerdo a su valor de ranking. Los objetos con mayor ranking son mostrados a los usuarios y el proceso puede tener otras iteraciones si el usuario desea refinar su consulta.Medidas de rendimiento y correctitud[editar]Muchas medidas han sido propuestas para evaluar el rendimiento de los sistemas de recuperación de información. Las medidas necesitan una colección de documentos y una consulta. A continuación serán descritas algunas medidas comunes, las cuales asumen que: cada documento se sabe que este es relevante o no relevante para una consulta particular. En la práctica pueden haber diferentes matices de relevancia.Precisión[editar]La precisión es la fracción de documentos recuperados que son relevantes para la necesidad de información del usuario.Precisión=|{documentos relevantes}∩{documentos recuperados}||{documentos recuperados}|{\displaystyle {\mbox{Precisión}}={\frac {|\{{\mbox{documentos relevantes}}\}\cap \{{\mbox{documentos recuperados}}\}|}{|\{{\mbox{documentos recuperados}}\}|}}}La precisión tiene en cuenta todos los documentos recuperados. También puede ser evaluada en un corte determinado del ranking, considerando solamente los primeros resultados obtenidos del sistema.Nótese que el significado y uso de la "precisión" en el campo de la Recuperación de Información, difiere de las definiciones de exactitud y precisión en otras ramas de la ciencia y la tecnología.Exhaustividad[editar]La exhaustividad es la fracción de documentos relevantes para una consulta que fueron recuperados.Exhaustividad=|{documentos relevantes}∩{documentos recuperados}||{documentos relevantes}|{\displaystyle {\mbox{Exhaustividad}}={\frac {|\{{\mbox{documentos relevantes}}\}\cap \{{\mbox{documentos recuperados}}\}|}{|\{{\mbox{documentos relevantes}}\}|}}}Resulta trivial obtener un 100% de exhaustividad si se toman como respuesta para cualquier consulta todos los documentos de la colección. Por lo tanto, la exhaustividad sola no es suficiente, sino que se necesita también medir el número de documentos no relevantes, por ejemplo con el cálculo de la precisión.Proposición de fallo[editar]La proposición de fallo, llamada en inglés fall-out, es la proporción de documentos no relevantes que son recuperados, fuera de todos los documentos relevantes disponibles.fall-out=|{documentos no relevantes}∩{documentos recuperados}||{documentos no relevantes}|{\displaystyle {\mbox{fall-out}}={\frac {|\{{\mbox{documentos no relevantes}}\}\cap \{{\mbox{documentos recuperados}}\}|}{|\{{\mbox{documentos no relevantes}}\}|}}}Resulta trivial obtener un 0% de proposición de fallo si no se devuelve ningún documento de la colección para cualquier consulta.Medida F[editar]La medida F es un balance de la precisión y el recobrado:F=2⋅Precision⋅Recobrado(Precision+Recobrado).{\displaystyle F={\frac {2\cdot \mathrm {Precision} \cdot \mathrm {Recobrado} }{(\mathrm {Precision} +\mathrm {Recobrado} )}}.\,}Esta es conocida además como la medida F1{\displaystyle F_{1}}, pues el recobrado y la precisión son pesados uniformemente.La fórmula general para el parámetro real no negativo β{\displaystyle \beta } es:Fβ=(1+β2)⋅(Precision⋅Recobrado)(β2⋅Precision+Recobrado){\displaystyle F_{\beta }={\frac {(1+\beta ^{2})\cdot (\mathrm {Precision} \cdot \mathrm {Recobrado} )}{(\beta ^{2}\cdot \mathrm {Precision} +\mathrm {Recobrado} )}}\,}.Otras dos medidas F ampliamente utilizadas son la medida F2{\displaystyle F_{2}}, que pondera el recobrado dos veces por encima de la precisión, y la medida F0.5{\displaystyle F_{0.5}}, que pesa la precisión dos veces por encima del recobrado.La medida F fue obtenida por Van Rijsbergen en 1979. Fβ{\displaystyle F_{\beta }} “mide la efectividad de la recuperación respecto a un usuario que atribuye β{\displaystyle \beta } veces más importancia al recobrado que a la precisión”. Está basada en la medida de Van Rijsbergen E=1−1αP+1−αR{\displaystyle E=1-{\frac {1}{{\frac {\alpha }{P}}+{\frac {1-\alpha }{R}}}}}. La relación entre estas dos medidas es Fβ=1−E{\displaystyle F_{\beta }=1-E} donde α=11+β2{\displaystyle \alpha ={\frac {1}{1+\beta ^{2}}}}.Precisión Promedio[editar]La Precisión y el recobrado son métricas basadas en toda la lista de documentos retornada por el sistema dada una consulta. Para sistemas que hacen ranking a los documentos retornados para una consulta es deseable considerar además el orden en que los documentos retornados son presentados. Si se computa la precisión y el recobrado en cada posición de la secuencia de documentos con ranking, podemos plotear la curva precisión - recobrado, ploteando la precisión p(r){\displaystyle p(r)} como una función del recobrado r{\displaystyle r}. La Precisión Promedio computa el promedio de los valores de p(r){\displaystyle p(r)} sobre la integral desde r=0{\displaystyle r=0} hasta r=1{\displaystyle r=1}:AveP=∫01p(r)dr.{\displaystyle \operatorname {AveP} =\int _{0}^{1}p(r)dr.}Esta integral es remplazada en la práctica por una suma finita sobre todas las posiciones en la secuencia de documentos con ranking:AveP=∑k=1nP(k)Δr(k){\displaystyle \operatorname {AveP} =\sum _{k=1}^{n}P(k)\Delta r(k)}donde k{\displaystyle k} es el ranking en la secuencia de documentos recuperados, n{\displaystyle n} es el número de documentos recuperados, P(k){\displaystyle P(k)} es la precisión del corte en la posición k{\displaystyle k} de la lista y Δr(k){\displaystyle \Delta r(k)} es el cambio en el recobrado de los elemrentos k−1{\displaystyle k-1} hasta k{\displaystyle k}.Esta suma finita es equivalente a:AveP=∑k=1n(P(k)×rel(k))number of relevant documents{\displaystyle \operatorname {AveP} ={\frac {\sum _{k=1}^{n}(P(k)\times rel(k))}{\mbox{number of relevant documents}}}\!}donde rel(k){\displaystyle rel(k)} es un indicador igual a 1 si el ítem en la posición k{\displaystyle k} del ranking es relevante al documento, y cero en otro caso. Nótese que el promedio es sobre todos los documentos relevantes y que los documentos relevantes que no son recuperados obtienen una precisión igual a cero.La Precisión Promedio en ocasiones se refiere geométricamente como el área bajo la curva precisión - recobrado.Media de la precisión promedio[editar]La media de la precisión promedio (también conocido como La media de Isabel, o MAP: Mean Average Precision por su nombre en inglés), para un conjunto de consultas oqueries es el promedio de las puntuaciones medias de precisión para cada consulta.MAP=∑q=1QAveP(q)Q{\displaystyle \operatorname {MAP} ={\frac {\sum _{q=1}^{Q}\operatorname {AveP(q)} }{Q}}\!}donde Q es el número de consultas que se están evaluando.Tipos de Modelos[editar]Para recuperar efectivamente los documentos relevantes por estrategias de recuperación de información, los documentos son transformados en una representación lógica de los mismos. Cada estrategia de recuperación incorpora un modelo específico para sus propósitos de representación de los documentos. La figura a la derecha ilustra la relación entre algunos de los modelos más comunes. Los modelos están categorizados de acuerdo a dos dimensiones: la base matemática y las propiedades de los modelos. Categorización de los Modelos de Recuperación de InformaciónPrimera Dimensión: Base Matemática[editar]Modelos basados en Teoría de Conjuntos: Los documentos se representan como un conjunto de palabras o frases. Los modelos más comunes son:Modelo BooleanoModelo Booleano ExtendidoModelo FuzzyModelos Algebraicos: En estos modelos los documentos y las consultas se representas como vectores, matrices o tuplas. La similitud entre un documento y una consulta se representa por un escalar. Dentro de ellos tenemos:Modelo VectorialModelo Vectorial GeneralizadoModelo Booleano ExtendidoIndexación Semántica LatenteModelos Probabilísticos: Tratan el proceso de recuperación de documentos como una inferencia probabilística. Las similitudes son calculadas como las probabilidades de que un documento sea relevante dada una consulta.Modelo de independencia binariaModelo de Relevancia ProbabilísticoRedes de InferenciaRedes de CreenciaSegunda Dimensión: Propiedades de los Modelos[editar]Modelos sin independencia entre términos: Tratan a los términos como si fueran independientes.Modelos con dependencia entre términos: Permiten representar las interdependencias entre términos.Bibliografía[editar]Baeza-Yates, Ricardo; Ribeiro-Neto, Berthier: Modern Information Retrieval. New York : ACM;Harlow, Essex: Addison-Wesley Longman, 1999.Salvador Oliván, José A.: Recuperación de Información. Buenos Aires : Alfagrama, 2008.Salton, Gerald; McGill, Michael J.: Introduction to Modern Information Retrieval. New York : McGraw-Hill, 1983.Esta obra contiene una traducción derivada de Information Retrieval de Wikipedia en inglés, publicada por sus editores bajo la Licencia de documentación libre de GNU y laLicencia Creative Commons Atribución-CompartirIgual 3.0 Unported.Referencias[editar]Recuperación de Información.: Information Retrieval. España: 2011. Recuperación de Información.: Information Retrieval. Bogotá : ULS, 2010. Búsqueda y Recuperación de Información.: Information Retrieval. Bogotá : ULS, 2010. Rincón, Omaira.: Recuperación de Información. Colombia : ULS, 2010.↑ Saltar a:a b Singhal, Amit (2001). «Modern Information Retrieval: A Brief Overview». Bulletin of the IEEE Computer Society Technical Committee on Data Engineering 24 (4): 35-43.Recuperación de Información.: Information Retrieval. Bogotá : ULS, 2010. Búsqueda y Recuperación de Información.: Information Retrieval. Bogotá : ULS, 2011. MRCategoría: Lingüística computacionalMenú de navegaciónNo has accedidoDiscusiónContribucionesCrear una cuentaAccederArtículoDiscusiónLeerEditarVer historialBuscarPortadaPortal de la comunidadActualidadCambios recientesPáginas nuevasPágina aleatoriaAyudaDonacionesNotificar un errorImprimir/exportarCrear un libroDescargar como PDFVersión para imprimirEn otros proyectosWikimedia CommonsHerramientasLo que enlaza aquíCambios en enlazadasSubir archivoPáginas especialesEnlace permanenteInformación de la páginaElemento de WikidataCitar esta páginaEn otros idiomasالعربيةDeutschEnglishFrançaisBahasa IndonesiaBahasa MelayuPortuguêsРусский中文25 másEditar enlacesSe editó esta página por última vez el 2 abr 2018 a las 23:58.El texto está disponible bajo la Licencia Creative Commons Atribución Compartir Igual 3.0; pueden aplicarse cláusulas adicionales. Al usar este sitio, usted acepta nuestros términos de uso y nuestra política de privacidad. Wikipedia® es una marca registrada de la Fundación Wikimedia, Inc., una organización sin ánimo de lucro.Normativa de privacidadAcerca de WikipediaLimitación de responsabilidadDesarrolladoresDeclaración de cookiesVersión para móviles

a

TELETRABAJO

r

DefiniciónEl teletrabajo se entiende como una modalidad laboral a distancia. Conoce aquí más profundamente su definición y características.Aunque existen diversas definiciones derivadas especialmente de las legislaciones de los distintos países, para Colombia son válidas estas dos referencias:La Organización Internacional de Trabajo -OIT- define teletrabajo como:"Una forma de trabajo en la cual: a) el mismo se realiza en una ubicación alejada de una oficina central o instalaciones de producción, separando así al trabajador del contacto personal con colegas de trabajo que estén en esa oficina y, b) la nueva tecnología hace posible esta separación facilitando la comunicación". (Citado en Vittorio Di Martino, 2004).En Colombia, el teletrabajo se encuentra definido en la Ley 1221 de 2008 como:"Una forma de organización laboral, que consiste en el desempeño de actividades remuneradas o prestación de servicios a terceros utilizando como soporte las tecnologías de la información y comunicación -TIC- para el contacto entre el trabajador y la empresa, sin requerirse la presencia física del trabajador en un sitio especifico de trabajo". (Artículo 2, Ley 1221 de 2008).Características del teletrabajoANTESAHORAHorarios rígidos 8am - 5 pmHorarios flexibles de acuerdo a las necesidades del cargo y los resultados esperadosTrabajo únicamente en la sede de la organizaciónTrabajo desde cualquier lugarUso de computadores únicamente en la oficinaDispositivos propios (BYOD)Sistemas de monitoreo y control físicosEvaluación por resultadosReuniones laborales limitadas a encuentros físicosReuniones virtuales con participaciones ilimitadas-Más allá de la definición, el teletrabajo se entiende a partir de sus características:Una actividad laboral que se lleva a cabo fuera de la organización en la cual se encuentran centralizados todos los procesos.La utilización de tecnologías para facilitar la comunicación entre las partes sin necesidad de estar en un lugar físico determinado para cumplir sus funciones.Un modelo organizacional diferente al tradicional que replantea las formas de comunicación interna de la organización y en consecuencia genera nuevos mecanismos de control y seguimiento a las tareas.Descargue el PDF del capítulo de 'Conceptos Clave'Descargue el PDF completo del 'Libro Blanco del Teletrabajo'DEFINICIÓNMODALIDADESBENEFICIOSRETOS PARA LA IMPLEMENTACIÓNREQUERIMIENTOSDescargue el capítulo de Conceptos clavesDescargue completo el Libro Blanco

a

WEEB 2.0

r

Web 2.0El término Web 2.0 o Web social1​ comprende aquellos sitios web que facilitan el compartir información, la interoperabilidad, el diseño centrado en el usuario y la colaboración en la World Wide Web.Un sitio Web 2.0 permite a los usuarios interactuar y colaborar entre sí, como creadores de contenido, en una comunidad virtual. Ejemplos de la Web 2.0 son las comunidades web, los servicios web, las aplicaciones Web, los servicios de red social, los servicios de alojamiento de videos, las wikis, blogs, mashups y folcsonomías.La evolución de las aplicaciones, que pasan de ser estáticas a dinámicas, implica la colaboración del usuario.El término Web 2.0 está asociado estrechamente con Tim O'Reilly, debido a la conferencia sobre la Web 2.0 de O'Reilly Media en 2004.2​ Aunque el término sugiere una nueva versión de la World Wide Web, no se refiere a una actualización de las especificaciones técnicas de la web, sino más bien a cambios acumulativos en la forma en la que desarrolladores de software y usuarios finales utilizan la Web.En conclusión, la Web 2.0 nos permite realizar trabajos colaborativos entre varios usuarios o colaboradores. Las herramientas que ofrece la web 2.0 colabora para mejorar los temas en el aula de clase3​, tanto para docentes como estudiantes y también pueden utilizarse para el trabajo en una empresa. El trabajo "colaborativo" está tomando mucha importancia en las actividades que se realizan en Internet.Índice  [ocultar] 1Definición de Web 2.02Introducción a la Web 2.03Origen del término4Características5Servicios asociados6Tecnología de la web 2.06.1Software de servidor7Relaciones con otros conceptos7.1Comparación con la Web semántica8Consecuencias de la Web 2.09Debilidades de la Web 2.010Véase también11Referencias12Enlaces externosDefinición de Web 2.0[editar]La Web 2.0 no es más que la evolución en la que los usuarios dejan de ser usuarios pasivos para convertirse en usuarios activos que participan y contribuyen en el contenido de la red siendo capaces de crear, dar soporte y formar parte de sociedades y/o comunidades tanto a nivel local como global; que se informan, comunican y generan conocimiento y contenido.La Web 2.0 es un concepto que se creó en 2003 y se refiere al fenómeno social surgido a partir del desarrollo de diversas aplicaciones en Internet. El término establece una distinción entre la primera época de la Web (donde el usuario era básicamente un sujeto pasivo que recibía la información o la publicaba, sin que existieran demasiadas posibilidades para que se generara la interacción) y la revolución que supuso el auge de los blogs, las redes sociales y otras herramientas relacionadas.Es decir, según Tim O’Reilly (2005) 4​"Web 2.0 es la red como plataforma, extendiéndose a todos los dispositivos conectados: las aplicaciones Web 2.0 son aquellas que utilizan lo mejor de las ventajas intrínsecas de dicha plataforma: distribuyendo software como un servicio constantemente actualizado que es mejor cuanto más gente lo utiliza, consumiendo y remezclando datos de múltiples fuentes incluyendo usuarios individuales, mientras proporcionan sus propios datos y servicios de manera que permiten a otros remezclarlos, creando efectos de red a través de una “arquitectura de participación”La Web 2.0, más que una tecnología es una actitud de los usuarios, tanto productores como consumidores, frente a la circulación, manejo y jerarquización de la información. Esta democratización de la producción y acceso a la información en diversos formatos e idiomas hace de la Web 2.0 un punto de encuentro para los ciudadanos del mundo.5​Introducción a la Web 2.0[editar]Tim Berners-Lee (es generalmente el autor más leído y citado) y Robert Cailliau inventaron la web alrededor de 1990. Durante las dos últimas décadas esta ha sufrido una evolución extraordinaria y asombrosa, apareciendo en 2004 el concepto de Web 2.0 fruto de esta evolución de la tecnología.Antes de la llegada de las tecnologías de la Web 2.0 se utilizaban páginas estáticas programadas en HTML (Hyper Text Markup Language) que no eran actualizadas frecuentemente. El éxito de las .com dependía de webs más dinámicas (a veces llamadas Web 1.5) donde los sistemas de gestión de contenidos servían páginas HTML dinámicas creadas al vuelo desde una base de datos actualizada. En ambos sentidos, el conseguir hits (visitas) y la estética visual eran considerados como factores.Los teóricos de la aproximación a la Web 2.0 piensan que el uso de la web está orientada a la interacción y redes sociales, que pueden servir contenido que explota los efectos de las redes, creando o no webs interactivas y visuales. Es decir, los sitios Web 2.0 actúan más como puntos de encuentro o webs dependientes de usuarios, que como webs tradicionales.Origen del término[editar]El término fue utilizado por primera vez por Darcy DiNucci en 1999, en su artículo "Fragmented future",6​ aunque no fue hasta 2004 cuando Tim O'Reilly lo hizo popular. El término acuñado por Darcy DiNucci fue popularizado más tarde por Dale Dougherty de O'Reilly Media en una tormenta de ideas con Craig Cline de MediaLive para desarrollar ideas para una conferencia. Dougherty sugirió que la web estaba en un renacimiento, con reglas que cambiaban y modelos de negocio que evolucionaban.Dougherty puso ejemplos —«DoubleClick era la Web 1.0; AdSense es la Web 2.0. Ofoto es Web 1.0; Flickr es Web 2.0.» —en vez de definiciones, y reclutó a John Battelle para dar una perspectiva empresarial. O'Reilly Media, Battelle, y MediaLive lanzaron su primera conferencia sobre la Web 2.0 en octubre de 2004. La segunda conferencia se celebró en octubre de 2005.En 2005, Tim O'Reilly definió el concepto de Web 2.0. Un mapa mental elaborado por Markus Angermeier resume la relación del término Web 2.0 con otros conceptos. En la conferencia, O'Reilly, Battelle y Edouard resumieron los principios claves que creen que caracterizan a las aplicaciones web 2.0: la comunidad como plataforma; efectos de red conducidos por una "arquitectura de participación" innovación y desarrolladores independientes; pequeños modelos de negocio capaces de redifundir servicios y contenidos; el perpetuo beta; software por encima de un solo aparato.En general, cuando mencionamos el término Web 2.0 nos referimos a una serie de aplicaciones y páginas de Internet que utilizan la inteligencia colectiva (concepto de software social) para proporcionar servicios interactivos en red.Características[editar]La Web 2.0 se caracteriza principalmente por la participación del usuario como contribuidor activo y no solo como espectador de los contenidos de la Web (usuario pasivo). Esto queda reflejado en aspectos como:El auge de los blogs.El auge de las redes sociales.Las webs creadas por los usuarios, usando plataformas de auto-edición.El contenido agregado por los usuarios como valor clave de la Web.El etiquetado colectivo (folcsonomía, marcadores sociales...).La importancia del long tail.El beta perpetuo: la Web 2.0 se inventa permanentemente.Aplicaciones web dinámicas.La World Wide Web como plataforma.7​Adicionalmente a las aplicaciones, por la forma en que se utilizan en la Web 2.0, el usuario ya no depende de que el software que ocupa regularmente o la información con la que trabaja habitualmente, estén instalados en su computadora; en vez de eso, aprovecha el almacenamiento en la nube para acceder a los datos y aplicaciones personales a través de sitios que lo identifican de forma única por medio de un usuario y una contraseña.Con esta característica, utilizando herramientas Web 2.0 el usuario no depende de un único equipo de cómputo ni de una ubicación geográfica, ya que puede tener acceso a toda su información desde cualquier equipo en cualquier parte del mundo donde tenga conexión a Internet.Las herramientas 2.0 (herramientas colaborativas y sociales) suponen un avance tecnológico importante ya que podemos:8​Crear entornos lúdicos multimedia y reproducirlos en grupos.Crear sistemas de puntuación de actividades y logros de objetivos.Crear un sistema de competencia que estimule la adquisición de conocimientos.Crear sistemas colaborativos para alcanzar logros comunes que a su vez sean puntuados.Crear sistemas de refuerzo positivos entre los componentes del grupo cuando uno de ellos alcanza un logro.Servicios asociados[editar]Para compartir en la Web 2.0 se utilizan una serie de herramientas, entre las que se pueden destacar:Blogs: Un blog es un espacio web personal en el que su autor (puede haber varios autores autorizados) puede escribir  Herramientas de la web 2.0cronológicamente artículos, noticias (con imágenes, vídeos y enlaces), pero además es un espacio colaborativo donde los lectores también pueden escribir sus comentarios a cada uno de los artículos (entradas/post) que ha realizado el autor. La blogosfera es el conjunto de blogs que hay en Internet. Como servicio para la creación de blogs destacan Wordpress.com y Blogger.com.Wikis: En hawaiano "wiki" significa: rápido, informal. Una wiki es un espacio web colaborativo, organizado mediante una estructura hipertextual de páginas (referenciadas en un menú lateral), donde varias personas elaboran contenidos de manera asíncrona. Basta pulsar el botón "editar" para acceder a los contenidos y modificarlos. Suelen mantener un archivo histórico de las versiones anteriores y facilitan la realización de copias de seguridad de los contenidos. Hay diversos servidores de wikis gratuitos.Redes sociales: Sitios web donde cada usuario tiene una página donde pública contenidos y se comunica con otros usuarios. Ejemplos: Facebook, Twitter, Hi5, Myspace, Instagram, entre otras. También existen redes sociales profesionales, dirigidas a establecer contactos dentro del mundo empresarial (LinkedIn, Xing...).Entornos para compartir recursos: Entornos que nos permiten almacenar recursos o contenidos en Internet, compartirlos y visualizarlos cuando nos convenga. Constituyen una inmensa fuente de recursos y lugares donde publicar materiales para su difusión mundial. Existen de diversos tipos, según el contenido que albergan o el uso que se les da:Documentos: Google Drive y Office Web Apps (OneDrive), en los cuales podemos subir nuestros documentos, compartirlos y modificarlos.Videos: Youtube, Vimeo, Dailymotion, Dalealplay... Contienen miles de vídeos subidos y compartidos por los usuarios.Fotos: Picasa, Flickr, Instagram... Permiten disfrutar y compartir las fotos, al igual que tenemos la oportunidad de organizar las fotos con etiquetas, separándolas por grupos como si fueran álbumes, podemos seleccionar y guardar aparte las fotos que no queremos publicar.Agregadores de noticias: Digg, Reddit, Menéame... Noticias de cualquier medio son agregadas y votadas por los usuarios.Almacenamiento Online: Dropbox, Google Drive, SkyDrivePresentaciones: Prezi, Slideshare, Emaze.Plataforma educativa: Moodle, Polivirtual.Tecnología de la web 2.0[editar]Se puede decir que una web está construida usando tecnología de la Web 2.0 si posee las siguientes características: Web 2.0 buzz wordsTécnicas:CSS, marcado XHTML válido semánticamente y MicroformatosTécnicas de aplicaciones ricas no intrusivas (como AJAX)Java Web StartRedifusión/Agregación de datos en RSS/ATOMURLs sencillas con significado semánticoSoporte para postear en un blogJCC y APIs REST o XMLJSONAlgunos aspectos de redes socialesMashup (aplicación web híbrida)General:El sitio debe estar listo para la entrada de cualquier personaEl sitio no debe actuar como un "jardín sin cosechar inminentemente": la información debe poderse introducir y extraer fácilmenteLos usuarios deberían controlar su propia informaciónBasada exclusivamente en la Web: los sitios Web 2.0 con más éxito pueden ser utilizados enteramente desde un navegadorLa existencia de Links es requisito imprescindibleSoftware de servidor[editar]La redifusión solo se diferencia nominalmente de los métodos de publicación de la gestión dinámica de contenido, pero los servicios Web requieren normalmente un soporte de bases de datos y flujo de trabajo mucho más robusto y llegan a parecerse mucho a la funcionalidad de Internet tradicional de un servidor de aplicaciones.El enfoque empleado hasta ahora por los fabricantes suele ser bien un enfoque de servidor universal, el cual agrupa la mayor parte de la funcionalidad necesaria en una única plataforma de servidor, o bien un enfoque plugin de servidor Web con herramientas de publicación tradicionales mejoradas con interfaces API y otras herramientas. Independientemente del enfoque elegido, no se espera que el camino evolutivo hacia la Web 2.0 se vea alterado de forma importante por estas opciones.Relaciones con otros conceptos[editar]Web 1.0Principalmente trata lo que es el estado estático, es decir los datos que se encuentran en esta no pueden cambiar, se encuentran fijos, no varían, no se actualizan.PLEDesde una perspectiva tecnológica, un Entorno Personal de Aprendizaje o PLE (Personal Learning Environment, en inglés) es definido como un conjunto de herramientas, servicios, recursos, fuentes de información9​ y aplicaciones de la Web 2.0 utilizado para organizar/gestionar el proceso de aprendizaje personal. Mediante el diseño y uso de PLEs, las personas integran herramientas tecnológicas, las aplicaciones y servicios de la Web 2.0.10​Web 1.0Web 2.0DoubleClickAdSenseOfotoFlickrTerratvYouTubeAkamaiBitTorrentNapsterMp3.comEnciclopedia BritánicaWikipediawebs personalesbloggingPáginas vistascoste por clicscreen scrapingservicios webPublicaciónparticipaciónSistema de gestión de contenidoswikihotmailGmail AOLdirectorios (taxonomía)etiquetas (folcsonomía)StickinessredifusiónComparación con la Web semántica[editar]En ocasiones se ha relacionado el término Web 2.0 con el de Web semántica.11​ Sin embargo ambos conceptos corresponden más bien a estados evolutivos de la web, y la Web semántica correspondería en realidad a una evolución posterior, a la Web 3.0 o web inteligente. La combinación de sistemas de redes sociales como Facebook, Twitter, FOAF y XFN, con el desarrollo de etiquetas (o tags), que en su uso social derivan en folcsonomías, así como el plasmado de todas estas tendencias a través de blogs y wikis, confieren a la Web 2.0 un aire semántico sin serlo realmente. Sin embargo, en el sentido más estricto para hablar de Web semántica, se requiere el uso de estándares de metadatos como Dublin Core y en su forma más elaborada de ontologías y no de folcsonomías. De momento, el uso de ontologías como mecanismo para estructurar la información en los programas de blogs es anecdótico y solo se aprecia de manera incipiente en algunos wiki.12​Por tanto podemos identificar la Web semántica como una forma de Web 3.0. Existe una diferencia fundamental entre ambas versiones de web (2.0 y semántica) y es el tipo de participante y las herramientas que se utilizan.La 2.0 tiene como principal protagonista al usuario humano que escribe artículos en su blog o colabora en un wiki. El requisito es que además de publicar en HTML emita parte de sus aportaciones en diversos formatos para compartir esta información como son los RSS, ATOM, etc. mediante la utilización de lenguajes estándares como el XML.La Web semántica, sin embargo, está orientada hacia el protagonismo de procesadores de información que entiendan de lógica descriptiva en diversos lenguajes más elaborados de metadatos como SPARQL,13​ POWDER14​ u OWL que permiten describir los contenidos y la información presente en la web, concebida para que las máquinas "entiendan" a las personas y procesen de una forma eficiente la avalancha de información publicada en la Web.Consecuencias de la Web 2.0[editar]La Web 2.0 ha originado la democratización de los medios haciendo que cualquiera tenga las mismas posibilidades de publicar noticias que un periódico tradicional. Grupos de personas crean blogs que al día de hoy reciben más visitas que las versiones on-line de muchos periódicos. La Web 2.0 ha reducido considerablemente los costes de difusión de la información.Al día de hoy podemos tener gratuitamente nuestra propia emisora de radio on-line, nuestro periódico on-line, nuestro canal de vídeos, etc. Al aumentar la producción de información aumenta la segmentación de la misma, lo que equivale a que los usuarios puedan acceder a contenidos que tradicionalmente no se publican en los medios convencionales.Debilidades de la Web 2.0[editar]Los internautas de la Web 2.0 son “autores” de los contenidos que vuelan en la Red, siempre que se trate de “creaciones originales”. Sin embargo, nada impide que una obra de “nueva creación” pueda incluir, total o parcialmente, una obra previa de otro autor. Esto es lo que se denomina “obra compuesta”.Para evitar problemas tipificados legalmente sería necesario contar con la autorización del autor de la obra previa o bien usar la misma Anal de una de las excepciones reconocidas en la propia Ley (ver Ley de Propiedad Intelectual). Ser autor de una web 2.0 supone, ni más ni menos, el tener la plena disposición y el derecho exclusivo a la explotación de dicha obra, sin más limitaciones que las establecidas en la Ley. Por tanto, la primera consecuencia jurídica de la Web 2.0 es que todos, más que nunca, somos “propietarios” de Internet y, en todo caso, de los contenidos concretos que creamos e introducimos diariamente en servicios como Blogger, Flickr, Facebook, Twitter o el ya mencionado Youtube. Es decir, cada vez más, la Ley de Propiedad Intelectual no solo se aplica para limitar nuestro acceso y uso de contenidos ajenos sino también para proteger y defender nuestros propios contenidos volcados en la Red.Falta implementar estrategias de seguridad informática, el constante intercambio de información y la carencia de un sistema adecuado de seguridad ha provocado el robo de datos e identidad generando pérdidas económicas y propagación de virus. La seguridad es fundamental en la tecnología, las empresas invierten en la seguridad de sus datos y quizás el hecho de que la web aún no sea tan segura, crea un leve rechazo a la transición de algunas personas con respecto a la automatización de sus sistemas. Poca cobertura de Internet en algunas regiones, aislamiento que se puede producir entre las personas, eliminando la interacción social física, falta de dominio de los instrumentos informáticos, inseguridad en el almacenamiento de datos y pérdida de control de las creaciones.Véase también[editar]Aplicaciones WebBiblioteca 2.0InternetSistema operativo webWeb semánticaWeb 3.0Referencias[editar]Volver arriba↑ Natalia Arroyo Vázquez (2 de octubre de 2014). «¿Web 2.0? ¿web social? ¿qué es eso?». e-Lis e-prints in library & information science http://eprints.rclis.org/10566/. Consultado el 19 de febrero de 2016.Volver arriba↑ ¿Qué es Web 2.0?, traducción del artículo de Tim O'Reilly «What Is Web 2.0. Design Patterns and Business Models for the Next Generation of Software» en el Portal de la Sociedad de la Información de Telefónica. Consultado el 6 de julio de 2011.Volver arriba↑ Domingo-Coscollola, M.; Marquès-Graells, P. (2011). «Aulas 2.0 y uso de las TIC en la práctica docente. [Classroom 2.0 Experiences and Building on the Use of ICT in Teaching]». Comunicar 19 (37): 169-175. doi:10.3916/c37-2011-03-09. Consultado el 2018-04-02.Volver arriba↑ Jordi Adell (6 de abril de 2008). «Algunas ideas sobre cómo desarrollar la competencia digital en Primaria y ESO». Centro de Educación y Nuevas Tecnologías Universitat Jaume I. Consultado el 4/11/17.Volver arriba↑ Cadena, Paula (2010). «Introducción al uso de la Web 2.0 en el estado colombiano.». Gobierno en Línea Colombia. Ministerio TIC. Consultado el 26 de octubre de 2017.Volver arriba↑ Darcy DiNucci (enero de 1999). «Fragmented future». darcyd.com. Consultado el 7 de enero de 2014.Volver arriba↑ Gonzálvez Vallés, Juan Enrique (2011). La Web 2,0 Y 3,0 en Su Relación Con El Eees. Visión Libros. p. 124. ISBN 978-84-9008-117-4.Volver arriba↑ Ávila de Tomas, José Francisco (17 de septiembre de 2012). «Gamificación: Nuevas herramientas para técnicas educativas tradicionales».Volver arriba↑ Adell, Jordi Castañeda Quintero, Linda Johanna (2010). Los Entornos Personales de Aprendizaje (PLEs): una nueva manera de entender el aprendizaje. Marfil – Roma TRE Universita degli studi. ISBN 978-84-268-1522-4.Volver arriba↑ Taller PLE. «Entornos Personales de Aprendizaje/Social Learning». https://tallerple.wordpress.com/2010/06/06/%C2%BFque-es-un%C2%A0ple/. Consultado el 26 de octubre de 2017.Volver arriba↑ Semantic Web Activity W3C [1]Volver arriba↑ algunos wikis

a

DELITOS INFORMATICOS

r

Delito informáticoEste artículo o sección necesita una revisión de ortografía y gramática.Puedes colaborar editándolo. Cuando se haya corregido, puedes borrar este aviso. Si has iniciado sesión, puedes ayudarte del corrector ortográfico, activándolo en: Mis preferencias → Accesorios → Navegación →  El corrector ortográfico resalta errores ortográficos con un fondo rojo. Este aviso fue puesto el 19 de mayo de 2015.Este artículo o sección necesita referencias que aparezcan en una publicación acreditada.Este aviso fue puesto el 29 de marzo de 2012.Un "delito informático" o "ciberdelito" es toda aquella acción antijurídica y culpable a través de vías informáticas o que tiene como objetivo destruir y dañar por medios electrónicos y redes de Internet. Existen conductas criminales por vías informáticas que no pueden considerarse como delito, según la: "Teoría del delito", por lo cual se definen como abusos informáticos 1​ y parte de la criminalidad informática. La criminalidad informática consiste en la realización de un tipo de actividades que, reuniendo los requisitos que delimitan el concepto de delito, sean llevados a cabo utilizando un elemento informático.2​Los delitos informáticos son aquellas actividades ilícitas que:Se cometen mediante el uso de computadoras, sistemas informáticos u otros dispositivos de comunicación (la informática es el medio o instrumento para realizar un delito).Tienen por objeto causar daños, provocar pérdidas o impedir el uso de sistemas informáticos (delitos informáticos).Los también conocidos Ciberdelitos, como lo señala Téllez, son actitudes contrarias a los intereses de las personas en que se tiene a las computadoras como instrumento o fin (concepto atípico) o las conductas atípicas, anti jurídicas y culpables en que se tiene a las computadoras como instrumento o fin (concepto típico).3​En la actualidad, como ha estudiado recientemente el prof. Dr. Moisés Barrio Andrés,4​ debe hablarse de ciberdelitos, pues este concepto sustantiva las consecuencias que se derivan de la peculiaridad que constituye Internet como medio de comisión del hecho delictivo, y que ofrece contornos singulares y problemas propios, como por ejemplo la dificultad de determinar el lugar de comisión de tales ilícitos, indispensable para la determinación de la jurisdicción y competencia penal para su enjuiciamiento y aplicación de la correspondiente ley penal, los problemas para la localización y obtención de las pruebas de tales hechos delictivos, la insuficiente regulación legal de los ilícitos que pueden realizarse a través de la Red o de las diligencias procesales de investigación aplicables para el descubrimiento de los mismos –normativa igualmente desbordada por el imparable avance de las innovaciones tecnológicas–, o, en fin, la significativa afectación que la investigación policial en Internet tiene sobre los derechos fundamentales de los ciudadanos.5​Por todo ello, la última orientación jurídica es priorizar el enfoque en la seguridad en las redes y los sistemas de información. A tal fin obedece la recientemente promulgada Directiva (UE) 2016/1148 del Parlamento Europeo y del Consejo, de 6 de julio de 2016, relativa a las medidas destinadas a garantizar un elevado nivel común de seguridad de las redes y sistemas de información en la Unión,6​ también conocida como Directiva NIS. Esta Directiva impone, por ello, a las entidades gestoras de servicios esenciales, así como a los prestadores de ciertos servicios digitales considerados clave en el funcionamiento de Internet, la obligación de establecer sistemas de gestión de la seguridad de la información en sus organizaciones y de notificar a las autoridades los incidentes que tengan especial gravedad. Además, obliga a los Estados miembros a supervisar el cumplimiento de estas obligaciones y a velar por que existan equipos de respuesta a incidentes de seguridad con capacidad para proteger a las empresas de la propagación de estos incidentes. Así mismo, impulsa la cooperación entre autoridades nacionales y el intercambio de información como medio para elevar el nivel de seguridad en la Unión Europea frente a amenazas de carácter transfronterizo.Mucha información es almacenada en un reducido espacio, con una posibilidad de recuperación inmediata, pero por complejas que sean las medidas de seguridad que se puedan implantar, aún no existe un método infalible de protección.7​La criminalidad informática tiene un alcance mayor y puede incluir delitos tradicionales como el fraude, el robo, chantaje, falsificación y la malversación de caudales públicos en los cuales ordenadores y redes han sido utilizados como medio. Con el desarrollo de la programación y de Internet, los delitos informáticos se han vuelto más frecuentes y sofisticados.La Organización de Naciones Unidas reconoce los siguientes tipos de delitos informáticos:Fraudes cometidos mediante manipulación de computadoras; en este se reúne: la manipulación de datos de entrada (sustraer datos), manipulación de programas (modificar programas del sistema o insertar nuevos programas o rutinas), manipulación de los datos de salida (fijación de un objeto al funcionamiento de sistemas de información, el caso de los cajeros automáticos) y fraude efectuado por manipulación informática (se sacan pequeñas cantidades de dinero de unas cuentas a otras).8​Manipulación de datos de entrada; como objetivo cuando se altera directamente los datos de una información computarizada. Como instrumento cuando se usan las computadoras como medio de falsificación de documentos.8​Daños o modificaciones de programas o datos computarizados; entran tres formas de delitos: sabotaje informático (eliminar o modificar sin autorización funciones o datos de una computadora con el objeto de obstaculizar el funcionamiento) y acceso no autorizado a servicios y sistemas informáticos (ya sea por curiosidad, espionaje o por sabotaje).8​Existen leyes que tienen por objeto la protección integral de los sistemas que utilicen tecnologías de información, así como la prevención y sanción de los delitos cometidos en las variedades existentes contra tales sistemas o cualquiera de sus componentes o los cometidos mediante el uso de dichas tecnologías.Una misma acción dirigida contra un sistema informático puede aparejar la violación de varias leyes penales, algunos autores expresan que el "uso de la informática no supone más que un modus operandi nuevo que no plantea particularidad alguna respecto de las formas tradicionales de comisión". Una clara dificultad para la persecución de estos ilícitos, ha sido que el ciudadano no considera delincuente al autor de estos delitos, entre los propios victimarios algunas veces existe una reivindicación que subyace a toda su actividad, como es el caso de los hackers, quienes cuentan con todo una "filosofía" preparada para respaldar su actividad afirmando que propenden a un mundo más libre, que disponga de acceso a todas las obras de la inteligencia, y basándose en ese argumento divulgan las claves que tienen en su actividad.9​Índice  [ocultar] 1Generalidades2Crímenes específicos2.1Sabotaje informático2.2Piratería informática2.3Cajeros automáticos y tarjetas de crédito2.4El caso Chalmskinn2.5Robo de identidad2.6Phreaking3Sujetos agente y paciente4Cómo influyen los delitos informáticos5Regulación por países en el mundo5.1Argentina5.1.1La ley vigente5.1.2Definiciones vinculadas a la informática5.1.3Delitos contra menores5.1.4Protección de la privacidad5.1.5Delitos contra la propiedad5.1.6Delitos contra las comunicaciones5.1.7Delitos contra la administración de justicia5.2Uruguay5.3Colombia5.4España5.5México5.6Venezuela5.6.1La ley vigente5.7Delitos contemplados por la ley5.7.1Contra el orden económico[14]​5.7.2Institución encargada de los delitos Violación de la privacidad informáticos5.7.3Casos registrados en Venezuela5.7.4Fraudes5.7.5La pornografía Infantil5.8Estados Unidos5.9Chile6Véase también7Referencias8Enlaces externosGeneralidades[editar]La criminalidad informática incluye una amplia variedad de delitos informáticos. El fenómeno se puede analizar en dos grupos:Informática como objeto del delito: Esta categoría incluye por ejemplo el sabotaje informático, la piratería informática, el hackeo, el crackeo y el DDNS (Denegación de servicio de nombres de dominio).Informática como medio del delito: Dentro de este grupo se encuentra la falsificación de documento electrónico, cajeros automáticos y tarjetas de crédito, robo de identidad, phreaking, fraudes electrónicos y pornografía infantil.Crímenes específicos[editar]Sabotaje informático[editar]Implica que el "delincuente" recupere o busque destruir el centro de cómputos en sí (las máquinas) o los programas o informaciones almacenados en los ordenadores. Se presenta como uno de los comportamientos más frecuentes y de mayor gravedad en el ámbito político.Piratería informática[editar]La piratería informática consiste en la violación ilegal del derecho de autor. Según la definición que en su artículo 51 brinda el ADPIC (Acuerdo sobre los aspectos de los Derechos de Propiedad Intelectual) son aquellas "mercaderías que lesionan el derecho de autor". La piratería es una de las modalidades de reproducción técnica (la otra es la -reproducción burda del original cuya apariencia dista mucho de la auténtica), que implica la elaboración de una copia semejante al original, con la intención de hacerla pasar por tal.Existen dos modalidades que se incluyen como piratería informática a saber:El hurto de tiempo de máquina: consiste en el empleo del computador sin autorización, y se pretende aludir a situaciones en que un tercero utiliza indebidamente recursos de la empresa en que trabaja o un sujeto autorizados se vale de tales prestaciones informáticas en un horario no permitido, utilizándolas para su provecho sin contar con permiso para ese uso fuera de hora.La apropiación o hurto de software y datos: en este caso el sujeto accede a un computador ajeno o a la sesión de otro usuario, retirando archivos informáticos, mediante la ejecución de los comandos copiar o cortar, para luego guardar ese contenido en un soporte propio.Cajeros automáticos y tarjetas de crédito[editar]Conductas mediante las cuales se logra retirar dinero del cajero automático, utilizando una tarjeta magnética robada, o los números de la clave para el acceso a la cuenta con fondos.El caso Chalmskinn[editar]Se procede cuando se accede a ordenadores industriales centrales de la red para el uso específico de malgastar fondos para interrumpir los accesos a telefonía móvil, más conocido como el caso Chalmskinn.Robo de identidad[editar]Luego de obtener los datos personales de un individuo, se procede a realizar todo tipo de operaciones para provecho del victimario, fingiendo ser la persona a la que se extrajo su información sensible. Encuadra como delito de estafa. Si el actuar del sujeto activo comporta dar a conocer datos personales ajenos contenidos en base de datos a las que por su empleo tiene acceso, entonces por expreso mandato legal la figura aplicable es la de revelación de secreto profesional.Phreaking[editar]Es la metodología más antigua dentro de los denominados ciberdelitos, consiste en ingresar en las redes de telecomunicaciones para realizar llamadas telefónicas a larga distancia utilizando la cuenta ajena. Resulta ser una modalidad primitiva de hacking.Sujetos agente y paciente[editar]Muchas de las personas que cometen los delitos informáticos poseen ciertas características específicas tales como la habilidad para el manejo de los sistemas informáticos o la realización de tareas laborales que le facilitan el acceso a información de carácter sensible.En algunos casos la motivación del delito informático no es económica sino que se relaciona con el deseo de ejercitar, y a veces hacer conocer a otras personas, los conocimientos o habilidades del delincuente en ese campo.Muchos de los "delitos informáticos" encuadran dentro del concepto de "delitos de cuello blanco", término introducido por primera vez por el criminólogo estadounidense Edwin Sutherland en 1943. Esta categoría requiere que: (1) el sujeto activo del delito sea una persona de cierto estatus socio-económico; (2) su comisión no pueda explicarse por falta de medios económicos, carencia de recreación, poca educación, poca inteligencia, ni por inestabilidad emocional. Son individuos con una gran especialización en informática, que conocen muy bien las particularidades de la programación de sistemas computarizados, de forma tal que logran un manejo muy solvente de las herramientas necesarias para violar la seguridad de un sistema automatizado.10​El sujeto pasivo en el caso de los delitos informáticos puede ser individuos, instituciones crediticias, órganos estatales, etc. que utilicen sistemas automatizados de información, generalmente conectados a otros equipos o sistemas externos. Víctima puede ser cualquier persona física o jurídica que haya establecido una conexión a Internet (ya que es la principal ventana de entrada para estas conductas), una conexión entre computadoras, o que en definitiva cuenta con un sistema informático para el tratamiento de sus datos.10​Para la labor de prevención de estos delitos es importante el aporte de los damnificados que puede ayudar en la determinación del modus operandi, esto es de las maniobras usadas por los delincuentes informáticos.Cómo influyen los delitos informáticos[editar]Los delitos informáticos están presentes en la actualidad en cualquier parte del mundo en la que se tenga acceso a un medio virtual y electrónico, esto conlleva a que la información que publicamos en redes sociales, perfiles, correos entre otros puede llegar a ser vulnerada. Este tipo de acceso a la privacidad de una persona puede afectar no solo su vida financiera sino también su vida personal.El uso de dispositivos cada vez es más común, ya que todas las personas buscan comunicarse entre sí, enviar información es algo inevitable sobre todo en aquellos casos en que las distancias son más largas. Cualquier tipo de información que se envié por medios electrónicos puede ser alcanzada por un ciberdelincuente, el cual no busca siempre un beneficio económico con su actividad delictiva, sino que en algunos casos solo busca poner a prueba su inteligencia.Al ampliarse el campo de los Delitos Informáticos también se han creado dependencias en las diferentes instituciones de seguridad que buscan ponerle freno a las acciones delictivas cometida por este tipo de personas.La información que suministramos en las redes sociales es de gran valor para aquellas que tienen el tiempo de investigar la vida de los demás, sin darnos cuenta nosotros mismos suministramos información valiosa no solo de nuestra vida y actividades sino también de quienes nos rodean. Desafortunadamente cuando una persona se da cuenta de que sus datos han sido vulnerados es demasiado tarde.Muy pocas personas son consientes de la influencia que tienen los Delitos Informáticos en la actualidad y por esto no tienen mecanismos de defensa control sobre la información que comparten a través de los medios electrónicos.11​Regulación por países en el mundo[editar]Argentina[editar]La ley vigente[editar]En Argentina sancionó el 4 de junio de 2008 la Ley 26.388 (promulgada de hecho el 24 de junio de 2008) que modifica el Código Penal a fin de incorporar al mismo diversos delitos informáticos, tales como la distribución y tenencia con fines de distribución de pornografía infantil, violación de correo electrónico, acceso ilegítimo a sistemas informáticos, daño informático y distribución de virus, daño informático agravado e interrupción de comunicaciones.Definiciones vinculadas a la informática[editar]En el nuevo ordenamiento se establece que el término "documento" comprende toda representación de actos o hechos, con independencia del soporte utilizado para su fijación, almacenamiento, archivo o transmisión (art. 77 Código Penal).Los términos "firma" y "suscripción" comprenden la firma digital, la creación de una firma digital o firmar digitalmente (art. 77 Código Penal).Los términos "instrumento privado" y "certificado" comprenden el documento digital firmado digitalmente (art. 77 Código Penal).Delitos contra menores[editar]En el nuevo ordenamiento pasan a ser considerados delitos los siguientes hechos vinculados a la informática:Artículo 128: Será reprimido con prisión de seis (6) meses a cuatro (4) años el que produzca, financie, ofrezca, comercialice, publique, facilite, divulgue o distribuya, por cualquier medio, toda representación de un menor de dieciocho (18) años dedicado a actividades sexuales explícitas o toda representación de sus partes genitales con fines predominantemente sexuales, al igual que el que organizare espectáculos en vivo de representaciones sexuales explícitas en que participaren dichos menores.Será reprimido con prisión de cuatro (4) meses a dos (2) años el que tuviere en su poder representaciones de las descriptas en el párrafo anterior con fines inequívocos de distribución o comercialización.Será reprimido con prisión de un (1) mes a tres (3) años el que facilitare el acceso a espectáculos pornográficos o suministrare material pornográfico a menores de catorce (14) años.Protección de la privacidad[editar]Artículo 153: Será reprimido con prisión de quince (15) días a seis (6) meses el que abriere o accediere indebidamente a una comunicación electrónica, una carta, un pliego cerrado, un despacho telegráfico, telefónico o de otra naturaleza, que no le esté dirigido; o se apoderare indebidamente de una comunicación electrónica, una carta, un pliego, un despacho u otro papel privado, aunque no esté cerrado; o indebidamente suprimiere o desviare de su destino una correspondencia o una comunicación electrónica que no le esté dirigida.En la misma pena incurrirá el que indebidamente interceptare o captare comunicaciones electrónicas o telecomunicaciones provenientes de cualquier sistema de carácter privado o de acceso restringido.La pena será de prisión de un (1) mes a un (1) año, si el autor además comunicare a otro o publicare el contenido de la carta, escrito, despacho o comunicación electrónica.Si el hecho lo cometiere un funcionario público que abusare de sus funciones, sufrirá además, inhabilitación especial por el doble del tiempo de la condena.Artículo 153 bis: Será reprimido con prisión de quince (15) días a seis (6) meses, si no resultare un delito más severamente penado, el que a sabiendas accediere por cualquier medio, sin la debida autorización o excediendo la que posea, a un sistema o dato informático de acceso restringido.La pena será de un (1) mes a un (1) año de prisión cuando el acceso fuese en perjuicio de un sistema o dato informático de un organismo público estatal o de un proveedor de servicios públicos o de servicios financieros.Artículo 155: Será reprimido con multa de pesos un mil quinientos ($ 1.500) a pesos cien mil ($ 100.000), el que hallándose en posesión de una correspondencia, una comunicación electrónica, un pliego cerrado, un despacho telegráfico, telefónico o de otra naturaleza, no destinados a la publicidad, los hiciere publicar indebidamente, si el hecho causare o pudiere causar perjuicios a terceros.Está exento de responsabilidad penal el que hubiere obrado con el propósito inequívoco de proteger un interés público.Artículo 157: Será reprimido con prisión de un (1) mes a dos (2) años e inhabilitación especial de un (1) a cuatro (4) años, el funcionario público que revelare hechos, actuaciones, documentos o datos, que por ley deben ser secretos.Artículo 157 bis: Será reprimido con la pena de prisión de un (1) mes a dos (2) años el que:1. A sabiendas e ilegítimamente, o violando sistemas de confidencialidad y seguridad de datos, accediere, de cualquier forma, a un banco de datos personales;2. Ilegítimamente proporcionare o revelare a otro información registrada en un archivo o en un banco de datos personales cuyo secreto estuviere obligado a preservar por disposición de la ley.3. Ilegítimamente insertare o hiciere insertar datos en un archivo de datos personales.Cuando el autor sea funcionario público sufrirá, además, pena de inhabilitación especial de un (1) a cuatro (4) años.Delitos contra la propiedad[editar]Artículo 173 inciso 16: (Incurre en el delito de defraudación)...El que defraudare a otro mediante cualquier técnica de manipulación informática que altere el normal funcionamiento de un sistema informático o la transmisión de datos.Artículo 183 del Código Penal: (Incurre en el delito de daño)...En la misma pena incurrirá el que alterare, destruyere o inutilizare datos, documentos, programas o sistemas informáticos; o vendiere, distribuyere, hiciere circular o introdujere en un sistema informático, cualquier programa destinado a causar daños.Artículo 184 del Código Penal: (Eleva la pena a tres (3) meses a cuatro (4) años de prisión, si mediare cualquiera de las circunstancias siguientes):Inciso 5: Ejecutarlo en archivos, registros, bibliotecas, museos o en puentes, caminos, paseos u otros bienes de uso público; o en tumbas, signos conmemorativos, monumentos, estatuas, cuadros u otros objetos de arte colocados en edificios o lugares públicos; o en datos, documentos, programas o sistemas informáticos públicos;Inciso 6: Ejecutarlo en sistemas informáticos destinados a la prestación de servicios de salud, de comunicaciones, de provisión o transporte de energía, de medios de transporte u otro servicio público.Delitos contra las comunicaciones[editar]Artículo 197: Será reprimido con prisión de seis (6) meses a dos (2) años, el que interrumpiere o entorpeciere la comunicación telegráfica, telefónica o de otra naturaleza o resistiere violentamente el restablecimiento de la comunicación interrumpida.Delitos contra la administración de justicia[editar]Artículo 255: Será reprimido con prisión de un (1) mes a cuatro (4) años, el que sustrajere, alterare, ocultare, destruyere o inutilizare en todo o en parte objetos destinados a servir de prueba ante la autoridad competente, registros o documentos confiados a la custodia de un funcionario público o de otra persona en el interés del servicio público. Si el autor fuere el mismo depositario, sufrirá además inhabilitación especial por doble tiempo.Si el hecho se cometiere por imprudencia o negligencia del depositario, éste será reprimido con multa de pesos setecientos cincuenta ($ 750) a pesos doce mil quinientos ($ 12.500).Delito sobre los Sistemas Informáticos El 15 de noviembre de 2012, la Fiscalía General de la CABA dictó la Resolución 501/12, a través de la cual, creó como prueba piloto por el término de un año, el Equipo Fiscal Especializado en Delitos y Contravenciones Informáticas, que actúa con competencia única en toda la Ciudad Autónoma de Buenos Aires, con el fin de investigar los delitos informáticos propiamente dichos, y aquellos que se cometen a través de internet que por su complejidad en la investigación o su dificultad en individualizar a los autores, merecen un tratamiento especializado.Existen diferentes delitos informáticos en eucl es objeto el sistema informático, tales como:Delito de Daño: La ley 26388 incorpora como segundo párrafo del art. 183 CP “En la misma pena incurrirá el que alterare, destruyere o inutilizare datos, documentos, programas o sistemas informáticos, o vendiere, distribuyere, hiciere circular o introdujere en un sistema informático, cualquier programa destinado a causar daños".Delito Agravado: La ley 26388 agrega dos nuevas agravantes al art. 184 CP: 5) “ejecutarlo en archivos, registros, bibliotecas, ....o en datos, documentos, programas o sistemas informáticos públicos”; 6) “ejecutarlo en sistemas informáticos destinados a la prestación de servicios de salud, de comunicaciones, de provisión o transporte de energía, de medios de transporte u otro servicio público”.12​Uruguay[editar]El Estado uruguayo aprobó en el año 2007 la ley Nº 18.237 denominada EXPEDIENTE ELECTRÓNICO cuyo único artículo autoriza el uso de expediente electrónico, de documento electrónico, clave informática simple, firma electrónica, firma digital y domicilio electrónico constituido en todos los procesos judiciales y administrativos que se tramitan ante el Poder Judicial, con idéntica eficacia jurídica y valor probatorio que sus equivalentes convencionales. Se hace referencia a esta ley porque es evidente que será de amplio tratamiento para el caso de los delitos informáticos, puesto que las conductas que autoriza pueden ser objeto de un ciberdelito.Los delitos informáticos no son de tratamiento específico por la legislación uruguaya, puesto que no existe una ley de ilícitos informáticos (no puede haber delito sin ley previa, estricta y escrita que lo determine —principio de legalidad—), ni tampoco un título específico relativo a los mismos en el Código Penal uruguayo. Se tratará de otorgar una vez más, la participación que al Derecho Penal corresponde dentro del ordenamiento jurídico, como último remedio a las conductas socialmente insoportables, que no pueden ser solucionadas por la aplicación de otro proveimiento jurídico que no se la aplicación de la sanción más gravosa de todo el sistema.Colombia[editar]En Colombia el 5 de enero de 2009, el Congreso de la República de Colombia promulgó la Ley 1273 “Por medio del cual se modifica el Código Penal, se crea un nuevo bien jurídico tutelado —denominado “De la Protección de la información y de los datos”— y se preservan integralmente los sistemas que utilicen las tecnologías de la información y las comunicaciones, entre otras disposiciones”.Dicha ley tipificó como delitos una serie de conductas relacionadas con el manejo de datos personales, por lo que es de gran importancia que las empresas se blinden jurídicamente para evitar incurrir en alguno de estos tipos penales.No hay que olvidar que los avances tecnológicos y el empleo de los mismos para apropiarse ilícitamente del patrimonio de terceros a través de clonación de tarjetas bancarias, vulneración y alteración de los sistemas de cómputo para recibir servicios y transferencias electrónicas de fondos mediante manipulación de programas y afectación de los cajeros automáticos, entre otras, son conductas cada vez más usuales en todas partes del mundo. Según estadísticas, durante el 2007 en Colombia las empresas perdieron más de 6.6 billones de pesos a raíz de delitos informáticos.De ahí la importancia de esta ley, que adiciona al Código Penal colombiano el Título VII BIS denominado "De la Protección de la información y de los datos" que divide en dos capítulos, a saber: “De los atentados contra la confidencialidad, la integridad y la disponibilidad de los datos y de los sistemas informáticos” y “De los atentados informáticos y otras infracciones”.En Colombia existen instituciones de educación como UNICOLOMBIA que promueven capacitaciones en temas relacionados con Delitos Informáticos, el mejor manejo y uso de la prueba digital, establecer altos estándares científicos y éticos para Informáticos Forenses, Llevar a cabo investigación y desarrollo de nuevas tecnologías y los métodos de la ciencia del análisis forense digital e Instruir a los estudiantes en diversos campos específicos sobre nuevas tecnologías aplicadas a la informática Forense, la investigación científica y el proceso tecnológico de las mismas.España[editar]En España, los delitos informáticos son un hecho sancionable por el Código Penal en el que el delincuente utiliza, para su comisión, cualquier medio informático. Estas sanciones se recogen en la Ley Orgánica 10/1995, de 23 de noviembre en el BOE número 281, de 24 de noviembre de 1995. Estos tienen la misma sanción que sus homólogos no informáticos. Por ejemplo, se aplica la misma sanción para una intromisión en el correo electrónico que para una intromisión en el correo postal.El Tribunal Supremo emitió una sentencia el 12 de junio de 2007 (recurso Nº 2249/2006; resolución Nº 533/2007) que confirmó las penas de prisión para un caso de estafa electrónica (phishing).A la hora de proceder a su investigación, debido a que una misma acción puede tener consecuencias en diferentes fueros, comenzará la investigación aquel partido judicial que primero tenga conocimiento de los hechos delictivos cometidos a través de un medio informático, si durante el transcurso de la investagación, se encuentra al autor del delito y pertenece a otro partido judicial, se podrá realizar una acción de inhibición a favor de este último para que continue con la investigación del delito.México[editar]En México los delitos de revelación de secretos y acceso ilícito a sistemas y equipos de informática ya sean que estén protegidos por algún mecanismo de seguridad, se consideren propiedad del Estado o de las instituciones que integran el sistema financiero son hechos sancionables por el Código Penal Federal en el título noveno capítulo I y II.El artículo 167 fr.VI del Código Penal Federal sanciona con prisión y multa al que intencionalmente o con fines de lucro, interrumpa o interfiera comunicaciones alámbricas, inalámbricas o de fibra óptica, sean telegráficas, telefónicas o satelitales, por medio de las cuales se transmitan señales de audio, de video o de datos.La reproducción no autorizada de programas informáticos o piratería está regulada en la Ley Federal del Derecho de Autor en el Título IV, capítulo IV.También existen leyes locales en el código penal del Distrito Federal y el código penal del estado de Sinaloa.Venezuela[editar]La ley vigente[editar]El 30 de octubre de 2001 la Asamblea Nacional formulo la Ley Especial contra los Delitos Informáticos13​ donde se decreta, a través de 32 Artículos, como se protege a todos los sistemas y tecnologías de información en Venezuela, cuáles son los delitos relacionados con estos y que sanciones se aplican en cada delito específico. Esta ha sido la única ley que se ha presentado para enfrentar los delitos informáticos en Venezuela.Delitos contemplados por la ley[editar]La ley tipifica cinco clases de delitos:Contra los sistemas que utilizan tecnologías de información:14​Acceso Indebido (Art.6): es el acceso sin autorización a la información. Este delito recibe una pena de 1 a 5 años.Sabotaje o daño a sistemas (Art.7): implica la destrucción, modificación o cualquier alteración al funcionamiento normal de un sistema. Será penado con 4 a 8 años de prisión.Acceso indebido o sabotaje a sistemas protegidos (Art. 9):Posesión de equipos o prestación de servicios de sabotaje (Art. 10):las personas que con el objetivo de vulnerar fabriquen, venda, importen, posea, etc., recibirá una pena de 3 a 6 años.Espionaje informático (Art. 11): Implica la revelación de data o información contenida en un sistema protegidos. Recibida la pena de 4 a 8 años de prisión.Falsificación de documentos (Art. 12): La creación, modificación o eliminación algún documento incorporado en un sistema será penalizado con 3 a 6 años de prisión.Contra la propiedad14​:Hurto (Art. 13):apoderarse de bienes o valores tangibles o intangibles a través del uso de información contenida en un sistema, será castigado con 2 a 6 años de prisión.Fraude (Art. 14): La manipulación del sistema e inserción instrucciones falsas o fraudulentas que produzcan un resultado que permita obtener un provecho injusto y resulte en perjuicio de terceros, será castigado con 2 a 6 años de prisión.Obtención indebida de bienes o servicios (Art. 15): El que sin autorización para portarlos utilice tarjetas inteligentes ajenas u otros instrumentos para el mismo fin para obtener bienes y servicios sin asumir el compromiso del pago, será castigado con 2 a 6 años de prisiónManejo fraudulento de tarjetas inteligentes o instrumentos análogos (Art. 16): el que capture, copie, altere, duplique, etc., data será castigado con 5 a 10 años de prisión.Apropiación de tarjetas inteligentes o instrumentos análogos (Art. 17): : el que se apropie de una tarjeta inteligente o de cualquier instrumento para el mismo fin que se haya extraviado será castigado con prisión de 1 a 5 años.Provisión indebida de bienes o servicios (Art. 18): las personas que saben que las tarjetas inteligente u otros instrumentos para el mismo fin son robadas, vencidas, etc., y las reciben para intercambio monetario será penado con 2 6 años de prisión.Posesión de equipo para falsificaciones (Art. 19): quien posea equipos para falsificación de tarjetas inteligentes será penado con 3 a 6 años de prisión.Contra la privacidad de las personas y de las comunicaciones14​:Violación de la privacidad de la data o información de carácter personal (Art. 20): el que sin autorización modifique, utilice o elimine información será penalizado con 2 a 6 años de prisión.Violación de la privacidad de las comunicaciones (Art. 21): el que acceda, capture, interfiera, reproduzca, etc., mensajes de datos ajenos será sancionado con 2 a 6 años de prisión.Revelación indebida de data o información de carácter personal (Art. 22): el que revele, difunda o ceda información obtenida en los medios de los artículos mencionados anteriormente será sancionado con 2 a 6 años de prisión.Contra niños y adolescentes :14​Difusión o exhibición de material pornográfico (Art. 23):el que exhiba, difunda, transmita o venda material pornográfico será penalizado con 2 a 6 años de prisión.Exhibición pornográfica de niños o adolescentes (Art. 24): el que utilice imágenes o a una persona a través de cualquier medio con fines pornográficos será sancionado con 4 a 8 años de prisión.Contra el orden económico14​[editar]Apropiación de propiedad intelectual (Art. 25): el que obtenga provecho económico, reproduzca, modifique, distribuya un software u otra obra de intelecto será sancionado con 1 a 5 años de prisión.Oferta engañosa (Art. 26): el que haga alegaciones falsas o atrubuya características inciertas de cualquier elemento será sancionado con 1 a 5 años de prisión.El Artículo 29 hace una clara mención sobre el cumplimiento de Código Penal, mencionando cuatro penas accesorias, estos son aplicados dependiendo del delito que se haya cometido:14​La confiscación de los instrumentos con los que se realizó el delito, tales como equipos, dispositivos, herramientas, etc.Trabajo comunitario por hasta tres años.La persona será inhabilita de sus funciones o empleos por un periodo de tres años una vez que se haya cumplido con la sanción principal. Esto siempre y cuando el delito se haya cometido por abuso de la posición de acceso a la data.Suspensión de permiso para que la persona pueda ejercer como director y de representar personas jurídicas pro tres años después de cumplida la condena principal.La información de estas condenas no son privadas, el tribunal tiene todo el derecho de divulgarla y el juez, dependiendo del caso, podrá pedir una indemnización en forma monetaria para la víctima (Art.30 y 31).15​Institución encargada de los delitos Violación de la privacidad informáticos[

a

DEEP WEB

r

Internet profunda«Deep web» redirige aquí. Para el documental, véase Deep Web (documental).Este artículo tiene referencias, pero necesita más para complementar su verificabilidad.Puedes colaborar agregando referencias a fuentes fiables como se indica aquí. El material sin fuentes fiables podría ser cuestionado y eliminado.Este aviso fue puesto el 23 de mayo de 2015. Cifrado de la Internet profundaInternet profunda,1​ internet invisible2​ o internet oculta3​ es el contenido de internet que no está indexado por los motores de búsqueda convencionales, debido a diversos factores.4​ El término se atribuye al informático Mike Bergman.5​ Es el opuesto al Internet superficial.Índice  [ocultar] 1Origen2Tamaño3Motivos4Denominación5Rastreando la internet profunda6Métodos de profundización6.1Las arañas (web crawlers)6.2Tor6.3Criptomoneda7Recursos de la internet profunda8Véase también9Referencias10Enlaces externosOrigen[editar]La principal causa de la existencia de la internet profunda es la imposibilidad de los motores de búsqueda (Google, Yahoo, Bing, etc.) de encontrar o indexar gran parte de la información existente en Internet. Si los buscadores tuvieran la capacidad para acceder a toda la información entonces la magnitud de la «internet profunda» se reduciría casi en su totalidad. No obstante, aunque los motores de búsqueda pudieran indexar la información de la internet profunda esto no significaría que esta dejara de existir, ya que siempre existirán las páginas privadas. Los motores de búsqueda no pueden acceder a la información de estas páginas y sólo determinados usuarios, aquellos con contraseñas o códigos especiales, pueden hacerlo.La Deep Web es un sitio perfecto para el crimen organizado, ahí pueden establecerse contactos que no son monitoreados, nadie esta allí observando. Además las transferencias tanto de mercancía como de pagos son prácticamente imposible de rastrear. La web está dividida en dos partes, la web superficial y la web profunda. Esta última es la que se conoce como Deep Web, donde se ubica todo contenido que no es indexable por los buscadores, o al que los usuarios no pueden acceder mediante un navegador web como Google o Bing.La internet profunda no es una región prohibida o mística de internet, y la tecnología relacionada con ella por lo general no es conspirativa, peligrosa o ilegal. En ella se alberga todo tipo de recurso al que se es difícil de acceder mediante métodos comunes como los motores de búsqueda populares.Una parte de la internet profunda consiste en redes internas de instituciones científicas y académicas que forman la denominada Academic Invisible Web: («Internet académica invisible» por sus siglas en inglés) la cual se refiere a las bases de datos que contienen avances tecnológicos, publicaciones científicas, y material académico en general a los cuales no se pueden acceder fácilmente.6​Tamaño[editar]La internet profunda es un conjunto de sitios web y bases de datos que buscadores comunes no pueden encontrar ya que no están indexadas. El contenido que se puede hallar dentro de la internet profunda es muy amplio7​.El internet se ve dividido en dos ramas, La internet profunda y la superficial. La internet superficial se compone de páginas indexadas en servidores DNS con una alfabetización y codificación de página perfectamente entendible por los motores de búsqueda, mientras que la internet profunda está compuesta de páginas cuyos dominios están registrados con extensiones .onion y los nombres de los dominios están codificados en una trama HASH. Estas páginas se sirven de forma ad hoc, y no necesitan registrarse, basta con que tu ordenador tenga funcionando un servicio onion, que hará las veces de un servicio dns, pero especial para las páginas del internet profundo. Mediante una red P2P, se replican las bases de datos que contienen la resolución de nombres HASH.Mientras que las páginas normales son identificadas mediante el protocolo UDP/IP, las páginas .onion son repetidas por el ramal al que se ha conectado el navegador especializado para tal sistema de navegación segura. El sistema de búsqueda es el mismo que usa BitTorrent. El contenido se coloca en una base de datos y se proporciona sólo cuando lo solicite el usuario.8​En 2010 se estimó que la información que se encuentra en la internet profunda es de 7500 terabytes, lo que equivale a aproximadamente 550 billones de documentos individuales. El contenido de la internet profunda es de 400 a 550 veces mayor de lo que se puede encontrar en la internet superficial. En comparación, se estima que la internet superficial contiene solo 19 terabytes de contenido y un billón de documentos individuales.También en 2010 se estimó que existían más de 200 000 sitios en la internet profunda.9​Estimaciones basadas en la extrapolación de un estudio de la Universidad de California en Berkeley especula que actualmente la internet profunda debe tener unos 91 000 terabytes.10​La Association for Computing Machinery (ACM) publicó en 2007 que Google y Yahoo indexaban el 32 % de los objetos de la internet profunda, y MSN tenía la cobertura más pequeña con el 11 %. Sin embargo, la cobertura de los tres motores era de 37 %, lo que indicaba que estaban indexando casi los mismos objetos.11​Motivos[editar]Motivos por los que los motores de búsqueda no pueden indexar algunas páginas:Web contextual: páginas cuyo contenido varía dependiendo del contexto (por ejemplo, la dirección IP del cliente, de las visitas anteriores, etc.).Contenido dinámico: páginas dinámicas obtenidas como respuesta a parámetros, por ejemplo, datos enviados a través de un formulario.Contenido de acceso restringido: páginas protegidas con contraseña, contenido protegido por un Captcha, etc.Contenido No HTML: contenido textual en archivos multimedia, otras extensiones como exe, rar, zip, etc.Software: Contenido oculto intencionadamente, que requiere un programa o protocolo específico para poder acceder (ejemplos: Tor, I2P, Freenet)Páginas no enlazadas: páginas de cuya existencia no tienen referencia los buscadores; por ejemplo, páginas que no tienen enlaces desde otras páginas.Denominación[editar]Son páginas de texto, archivos, o en ocasiones información a la cual se puede acceder por medio de la World Wide Web que los buscadores de uso general no pueden, debido a limitaciones o deliberadamente, agregar a sus índices de páginas web.La Web profunda se refiere a la colección de sitios o bases de datos que un buscador común, como Google, no puede o no quiere indexar. Es un lugar específico del internet que se distingue por el anonimato. Nada que se haga en esta zona puede ser asociado con la identidad de uno, a menos que uno lo desee.12​Bergman, en un artículo semanal sobre la Web profunda publicado en el Journal of Electronic Publishing, mencionó que Jill Ellsworth utilizó el término «Web invisible» en 1994 para referirse a los sitios web que no están registrados por ningún motor de búsqueda.13​En su artículo, Bergman citó la entrevista que Frank García hizo a Ellsworth en 1996:14​Sería un sitio que, posiblemente esté diseñado razonablemente, pero no se molestaron en registrarlo en alguno de los motores de búsqueda. ¡Por lo tanto, nadie puede encontrarlos! Estás oculto. Yo llamo a esto la Web invisible.Otro uso temprano del término Web Invisible o web profunda fue por Bruce Monte y Mateo B. Koll de Personal Library Software, en una descripción de la herramienta @ 1 de web profunda, en un comunicado de prensa de diciembre de 1996.15​La importancia potencial de las bases de datos de búsqueda también se reflejó en el primer sitio de búsqueda dedicado a ellos, el motor AT1 que se anunció a bombo y platillo a principios de 1997. Sin embargo, PLS, propietario de AT1, fue adquirida por AOL en 1998, y poco después el servicio AT1 fue abandonado.13​El primer uso del término específico de web profunda, ahora generalmente aceptada, ocurrió en el estudio de Bergman de 2001 mencionado anteriormente.Por otra parte, el término web invisible se dice que es inexacto porque:Muchos usuarios asumen que la única forma de acceder a la web es consultando un buscador.Alguna información puede ser encontrada más fácilmente que otra, pero esto no quiere decir que esté invisible.La web contiene información de diversos tipos que es almacenada y recuperada en diferentes formas.El contenido indexado por los buscadores de la web es almacenado también en bases de datos y disponible solamente a través de las peticiones o consultas del usuario, por tanto no es correcto decir que la información almacenada en bases de datos es invisible.16​Rastreando la internet profunda[editar] Infografía sobre la deep webLos motores de búsqueda comerciales han comenzado a explorar métodos alternativos para rastrear la Web profunda. El Protocolo del sitio (primero desarrollado e introducido por Googleen 2005) y OAI son mecanismos que permiten a los motores de búsqueda y otras partes interesadas descubrir recursos de la internet profunda en los servidores web en particular. Ambos mecanismos permiten que los servidores web anuncien las direcciones URL que se puede acceder a ellos, lo que permite la detección automática de los recursos que no están directamente vinculados a la Web de la superficie. El sistema de búsqueda de la Web profunda de Google pre-calcula las entregas de cada formulario HTML y agrega a las páginas HTML resultantes en el índice del motor de búsqueda de Google. Los resultados surgidos arrojaron mil consultas por segundo al contenido de la Web profunda.17​ Este sistema se realiza utilizando tres algoritmos claves:La selección de valores de entrada, para que las entradas de búsqueda de texto acepten palabras clave.La identificación de los insumos que aceptan solo valores específicos (por ejemplo, fecha).La selección de un pequeño número de combinaciones de entrada que generan URLs adecuadas para su inclusión en el índice de búsqueda Web.Métodos de profundización[editar]Las arañas (web crawlers)[editar]Cuando se ingresa a un buscador y se realiza una consulta, el buscador no recorre la totalidad de internet en busca de las posibles respuestas, sino que busca en su propia base de datos, que ha sido generada e indexada previamente. Se utiliza el término «araña web» (en inglés web crawler) o robots (por software, comúnmente llamados "bots") inteligentes que van haciendo búsquedas por enlaces de hipertexto de página en página, registrando la información ahí disponible.18​Cuando una persona realiza una consulta, el buscador no recorre la totalidad de internet en busca de las posibles respuestas, lo cual supondría una capacidad de reacción bastante lenta. Lo que hace es buscar en su propia base de datos, que ha sido generada e indizada previamente. En sus labores de búsqueda, indización y catalogación, utilizan las llamadas arañas (o robots inteligentes) que van saltando de una página web a otra siguiendo los enlaces de hipertexto y registran la información allí disponible.[...] datos que se generan en tiempo real, como pueden ser valores de Bolsa, información del tiempo, horarios de trenes.El contenido que existe dentro de la internet profunda es en muy raras ocasiones mostrado como resultado en los motores de búsqueda, ya que las «arañas» no rastrean bases de datos ni los extraen. Las arañas no pueden tener acceso a páginas protegidas con contraseñas, algunos desarrolladores que no desean que sus páginas sean encontradas insertan etiquetas especiales en el código para evitar que sea indexada. Las «arañas» son incapaces de mostrar páginas que no estén creadas en lenguaje HTML, ni tampoco puede leer enlaces que incluyen un signo de interrogación. Pero ahora sitios web no creados con HTML o con signos de interrogación están siendo indexados por algunos motores de búsqueda. Sin embargo, se calcula que incluso con estos buscadores más avanzados solo se logra alcanzar el 16 % de la información disponible en la internet profunda. Existen diferentes técnicas de búsqueda para extraer contenido de la internet profunda como librerías de bases de datos o simplemente conocer el URL al que quieres acceder y escribirlo manualmente.19​Tor[editar]Artículo principal: Tor (red de anonimato) Logo de TorThe Onion Router (abreviado como TOR) es un proyecto diseñado e implementado por la marina de los Estados Unidos lanzado el 20 de septiembre de 2002. Posteriormente fue patrocinado por la EFF (Electronic Frontier Foundation, una organización en defensa de los derechos digitales). Al presente (2017), subsiste como TOR Project, una organización sin ánimo de lucro galardonada en 2011 por la Free Software Foundation por permitir que millones de personas en el mundo tengan libertad de acceso y expresión en internet manteniendo su privacidad y anonimato.20​A diferencia de los navegadores de internet convencionales, Tor le permite a los usuarios navegar por la Web de forma anónima. Tor es descargado de 30 millones a 50 millones de veces al año, hay 0,8 millones de usuarios diarios de Tor y un incremento del 20 % solamente en 2013. Tor puede acceder a unos 6500 sitios web ocultos.21​Cuando se ejecuta el software de Tor, para acceder a la internet profunda, los datos de la computadora se cifran en capas. El software envía los datos a través de una red de enlaces a otros equipos ―llamados en inglés «relays»(‘nodos’)― y lo va retransmitiendo quitando una capa antes de retransmitirlo de nuevo, esta trayectoria cambia con frecuencia. Tor cuenta con más de 4000 retransmisiones y todos los datos cifrados pasan a través de ―por lo menos― tres de estos relays. Una vez que la última capa de cifrado es retirado por un nodo de salida, se conecta a la página web que desea visitar.El contenido que puede ser encontrado dentro de la internet profunda es muy vasto, se encuentran por ejemplo, datos que se generan en tiempo real, como pueden ser valores de Bolsa, información del tiempo, horarios de trenes; bases de datos sobre agencias de inteligencia, disidentes políticos y contenidos criminales.18​Criptomoneda[editar]Artículo principal: Criptomoneda Logo de Bitcoin, una de las criptomonedas más populares.Es posible encontrar sitios web que realicen transacciones ilegales (como drogas, armas, o incluso asesinos a sueldo) en servidores exclusivos para usuarios de Tor. Es una práctica común utilizar monedas digitales como el Bitcoin.20​ que se intercambia a través de billeteras digitales entre el usuario y el vendedor, lo que hace que sea prácticamente imposible de rastrear.22​Recursos de la internet profunda[editar]Los recursos de la internet profunda pueden estar clasificados en las siguientes categorías:Contenido de acceso limitado: los sitios que limitan el acceso a sus páginas de una manera técnica (Por ejemplo, utilizando el estándar de exclusión de robots o captcha, que prohíben los motores de búsqueda de la navegación por y la creación de copias en caché.23​Contenido dinámico: las páginas dinámicas que devuelven respuesta a una pregunta presentada o acceder a través de un formulario, especialmente si se utilizan elementos de entrada en el dominio abierto como campos de texto.Contenido no enlazado: páginas que no están conectadas con otras páginas, que pueden impedir que los programas de rastreo web tengan acceso al contenido. Este material se conoce como páginas sin enlaces entrantes.Contenido programado: páginas que solo son accesibles a través de enlaces producidos por JavaScript, así como el contenido descargado de manera dinámica a partir de los servidores web a través de soluciones de Flash o Ajax.Sin contenido HTML: contenido textual codificado en multimedia (imagen o video) archivos o formatos de archivo específicos no tratados por los motores de búsqueda.Web privada: los sitios que requieren de registro y de una contraseña para iniciar sesiónWeb contextual: páginas con contenidos diferentes para diferentes contextos de acceso (por ejemplo, los rangos de direcciones IP de clientes o secuencia de navegación anterior).Véase también[editar].onionI2PDarknetThe Hidden WikiReferencias[editar]Volver arriba↑ «internet profunda, mejor que Deep Web.» («Aunque es posible emplear tanto el masculino como el femenino, la forma femenina es la que de hecho está más extendida con gran diferencia.»). Fundeu. Consultado el30 de marzo de 2016.Volver arriba↑ Devine, Jane; Egger-Sider, Francine (julio de 2004). «Beyond google: the invisible web in the academic library». The Journal of Academic Librarianship 30 (4): 265-269. doi:10.1016/j.acalib.2004.04.010. Consultado el 6 de febrero de 2014.Volver arriba↑ Raghavan, Sriram; Garcia-Molina, Hector (11-14 de septiembre de 2001). «Crawling the Hidden Web». 27th International Conference on Very Large Data Bases (Rome, Italy).Volver arriba↑ «'Deep web': guía básica para saber qué es y cómo se usa». 2016. Consultado el 2017.Volver arriba↑ Wright, Alex (22 de febrero de 2009). «Exploring a 'Deep Web' That Google Can’t Grasp». The New York Times. Consultado el 23 de febrero de 2009.Volver arriba↑ Lewandowski, Exploring the academic invisible web (11 de noviembre de 2013). Library Hi Tech (en inglés). «the Academic Invisible Web (AIW). We define the Academic Invisible Web as consisting of all databases and collections relevant to academia but not searchable by the general-purpose internet search engines.»Volver arriba↑ Grossman, Lev (11 de noviembre de 2013). «The Deep Web.». Time (en inglés). Consultado el 28 de octubre de 2014. «Technically the Deep Web refers to the collection of all the websites and databases that search engines like Google don't or can't índex».Volver arriba↑ Iffat, Rabia (1 de octubre de 2010). «Understanding the Deep Web». Library Philosophy and Practice 2010 (en inglés). Consultado el 28 de octubre de 2014. «Surface Web is made up of static and fixed pages, whereas Deep Web is made up of dynamic pages. Static pages do not depend on a database for their content. They reside on a server waiting to be retrieved, and are basically html files whose content never changes.»Volver arriba↑ Iffat, Rabia (1 de octubre de 2010). «Understanding the Deep Web». Library Philosophy and Practice 2010 (en inglés). Consultado el 28 de octubre de 2014. «Public information on the Deep Web is currently 400-550 times larger than the commonly-defined World Wide Web. The Deep Web contains 7,500 terabytes of information, compared to 19 on the Surface Web. Deep Web contains nearly 550 billion individual documents compared to one billion on the Surface Web. More than 200,000 Deep Web sites presently exist.»Volver arriba↑ DeepWeb.Volver arriba↑ He, Bin (1 de mayo de 2007). «Ebscohost.». Communications of the ACM (en inglés). Consultado el 29 de octubre de 2014. «Google and Yahoo both indexed 32% of the deep Web objects, and MSN had the smallest coverage of 11%. However, there was significant overlap in what they covered: the combined coverage of the three largest search engines increased only to 37%, indicating they were indexing almost the same objects.»Volver arriba↑ Grossman, Lev; Newton-Small, Roy & Stampler (noviembre de 2013). «The Deep Web». Time 182 (20).↑ Saltar a:a b Bergman, Michael K. «White Paper: The Deep Web: Surfacing Hidden Value» (en inglés). Consultado el 30 de octubre de 2014.Volver arriba↑ Garcia, Frank (enero de 1996). «Business and Marketing on the Internet». Masthead 9 (1). Archivado desde el original el 5 de diciembre de 1996. Consultado el 24 de febrero de 2009.Volver arriba↑ @1 comenzó con 5.7 terabytes de contenido, estimado en 30 veces el tamaño de la naciente World Wide Web; PLS fue adquirida por AOL en 1998 y @1 fue abandonado.«PLS introduce AT1, el servicio de la primera "segunda generación" de búsqueda en internet». Personal Library Software. diciembre de 1996. Archivado desde el original el 21 de octubre de 1997. Consultado el 24 de febrero de 2009.Volver arriba↑ Llanes Vilaragut, Lourdes & Suárez Carro, Juan R. «Para acceder al web profundo: conceptos y herramientas». Consultado el 30 de octubre de 2014.Volver arriba↑ Madhavan, Jayant; Ko, David; Kot, Lucja; Ganapathy, Vignesh; Rasmussen,Alex & Havely, Alon. «Google’s DeepWeb Crawl» (en inglés). Consultado el 30 de octubre de 2014.↑ Saltar a:a b Salazar, Idoia «El inmenso océano del Internet profundo.» 20 de octubre de 2005. El País (Madrid). Consultado el 29 de octubre de 2014.Volver arriba↑ Iffat, Rabia (1 de octubre de 2010). «Understanding the Deep Web». Library Philosophy and Practice 2010 (en inglés). Consultado el 28 de octubre de 2014. «The content of the Deep Web is rarely shown in a search engine result, since the search engine spiders do not crawl into databases and extract the data. These spiders can neither think nor type, but jump from link to link. As such, a spider cannot enter pages that are password protected. Web page creators who do not want their page shown in search results can insert special meta tags to keep the page from being indexed. Spiders are also unable to pages created without the use of html, and also links that include a question mark. But now parts of the Deep Web with non-html pages and databases with a question mark in a stable URL are being indexed by search engines, with non-html pages converted to html. Still, it is estimated that even the best search engines can access only 16 percent of information available on the Web. There are other Web search techniques and technologies that can be used to access databases and extract the content.»↑ Saltar a:a b Becerra Gutiérrez Juan Armando. «Mitos y realidades de la internet profunda». Consultado el 30 de octubre de 2014.Volver arriba↑ Grossman, Lev (11 de noviembre de 2013). «The Deep Web.». Time (en inglés). Consultado el 28 de octubre de 2014. «Unlike conventional Internet browsers, Tor's allows users to surf the Web anonymously. Tor is downloaded 30 million-50 million times a year. There are 800,000 daily Tor users―a jump of 20% in the past year. Tor can access 6,500 hidden websites.»Volver arriba↑ Grossman, Lev (11 de noviembre de 2013). «The Deep Web.». Time (en inglés). Consultado el 28 de octubre de 2014. «Bitcoin».Volver arriba↑ «Hypertext Transfer Protocol (HTTP/1.1): Caching.» (en inglés). junio de 2014. Consultado el 30 de octubre de 2014.Enlaces externos[editar]«Las profundidades del mar de internet», artículo en el sitio web CNN Expansion (Atlanta).Tor Project, sitio oficial del proyecto TOR.Hidden Wiki, Deep Web Links.Deep Web para Todos, grupo de discusiones sobre la Deep Web.TOR, el oscuro mundo de la internet profunda @efe_tecCategoría: World Wide Web

a

INFORMATICA FORENCE

r

Cómputo forenseEste artículo o sección necesita una revisión de ortografía y gramática.Puedes colaborar editándolo. Cuando se haya corregido, puedes borrar este aviso. Si has iniciado sesión, puedes ayudarte del corrector ortográfico, activándolo en: Mis preferencias → Accesorios → Navegación →  El corrector ortográfico resalta errores ortográficos con un fondo rojo. Este aviso fue puesto el 20 de septiembre de 2017.Este artículo o sección necesita referencias que aparezcan en una publicación acreditada.Este aviso fue puesto el 20 de septiembre de 2017.El cómputo forense, también llamado informática forense, computación forense, análisis forense digital o examinación forense digital es la aplicación de técnicas científicas y analíticas especializadas a infraestructura tecnológica que permiten identificar, preservar, analizar y presentar datos que sean válidos dentro de un proceso legal.Dichas técnicas incluyen reconstruir el bien informático, examinar datos residuales, autenticar datos y explicar las características técnicas del uso aplicado a los datos y bienes informáticos.Como la definición anterior lo indica, esta disciplina hace uso no solo de tecnologías de punta para poder mantener la integridad de los datos y del procesamiento de los mismos; sino que también requiere de una especialización y conocimientos avanzados en materia de informática y sistemas para poder detectar dentro de cualquier dispositivo electrónico lo que ha sucedido. El conocimiento del informático forense abarca el conocimiento no solamente del software si no también de hardware, redes, seguridad, hacking, cracking y recuperación de información.La informática forense ayuda a detectar pistas sobre ataques informáticos, robo de información, conversaciones o pistas de emails y chats.La importancia de éstos y el poder mantener su integridad se basa en que la evidencia digital o electrónica es sumamente frágil. El simple hecho de darle doble clic a un archivo modificaría la última fecha de acceso del mismo.Adicionalmente, un examinador forense digital, dentro del proceso del cómputo forense puede llegar a recuperar información que haya sido borrada desde el sistema operativo. El informático forense debe tener muy presentes el principio de intercambio de Locard así como el estándar de Daubert, por su importancia en el análisis de criminalística y la admisibilidad de pruebas que un perito forense debe presentar como testimonio en un juicio, respectivamente.Es muy importante mencionar que la informática forense o cómputo forense no tiene parte preventiva, es decir, la informática forense no tiene como objetivo el prevenir delitos, de ello se encarga la seguridad informática, por eso resulta imprescindible tener claro el marco de actuación entre la informática forense, la seguridad informática y la auditoría informática.Índice  [ocultar] 1Objetivos de la Informática Forense2Dispositivos a analizar3Definiciones4Pasos del cómputo forense4.1Identificación4.2Preservación4.3Análisis4.4Presentación5Herramientas de Cómputo Forense5.1Herramientas para el análisis de discos duros5.2Herramientas para el análisis de correos electrónicos5.3Herramientas para el análisis de dispositivos móviles5.4Herramientas para el análisis de redes5.5Herramientas para filtrar y monitorear el tráfico de una red tanto interna como a internet5.6Bibliografía6Véase también7ReferenciasObjetivos de la Informática Forense[editar]La informática forense tiene tres objetivos:La compensación de los daños causados por los intrusos o criminales.La persecución y procesamiento judicial de los criminales.La creación y aplicación de medidas para prevenir casos similares.Estos objetivos son logrados de varias formas, entre ellas, la principal es la colección de evidencia.Dispositivos a analizar[editar]La infraestructura informática a analizar puede ser toda aquella que tenga una Memoria, por lo que se incluyen en tal pericia los siguientes dispositivos:Disco duro de una Computadora o ServidorDocumentación referida del caso.Tipo de Sistema de TelecomunicacionesInformación Electrónica MAC addressLogs de seguridad.Información de FirewallsIP, redes Proxy. lmhost, host, Crossover, pasarelasSoftware de monitoreo y seguridadCredenciales de autentificaciónTrazo de paquetes de red.Teléfono Móvil o Celular, parte de la telefonía celular,Agendas Electrónicas (PDA)Dispositivos de GPS.ImpresoraMemoria USBBiosDefiniciones[editar]Cadena de Custodia: la identidad de personas que manejan la evidencia en el tiempo del suceso y la última revisión del caso. Es responsabilidad de la persona que maneja la evidencia asegurar que los artículos son registrados y contabilizados durante el tiempo en el cual están en su poder, y que son protegidos, así mismo llevando un registro de los nombres de las personas que manejaron la evidencia o artículos durante el lapso de tiempo y fechas de entrega y recepción.Imagen Forense: Técnica Llamada también "Espejeo" (en inglés "Mirroring"), la cual es una copia binaria de un medio electrónico de almacenamiento. En la imagen quedan grabados los espacios que ocupan los archivos y las áreas borradas incluyendo particiones escondidas.Análisis de Archivo: Examina cada archivo digital descubierto y crea una base de datos de información relacionada al archivo (metadatos, etc.), consistente entre otras cosas en la firma del archivo o hash (indica la integridad del archivo),Pasos del cómputo forense[editar]El proceso de análisis forense a una computadora se describe a continuación:Identificación[editar]Es muy importante conocer los antecedentes a la investigación "HotFix", situación actual y el proceso que se quiere seguir para poder tomar la mejor decisión con respecto a las búsquedas y las estrategia (debes estar bien programado y sincronizado con las actividades a realizar, herramientas de extracción de los registros de información a localizar). Incluye muchas veces ( en un momento especifico Observar, Analizar Interpretar y Aplicar la certeza, esto se llama criterio profesional que origina la investigación) la identificación del bien informático, su uso dentro de la red, el inicio de la cadena de custodia (proceso que verifica la integridad y manejo adecuado de la evidencia), la revisión del entorno legal que protege el bien y del apoyo para la toma de decisión con respecto al siguiente paso una vez revisados los resultados.Preservación[editar]Este paso incluye la revisión y generación de las imágenes forenses de la evidencia para poder realizar el análisis. Dicha duplicación se realiza utilizando tecnología punta para poder mantener la integridad de la evidencia y la cadena de custodia que se requiere( soportes). Al realizar una imagen forense, nos referimos al proceso que se requiere para generar una copia “bit-a-bit” (copia binaria) de todo el disco duro, el cual permitirá recuperar en el siguiente paso, toda la información contenida y borrada del disco duro. Para evitar la contaminación del disco duro, normalmente se ocupan bloqueadores de escritura de hardware, los cuales evitan el contacto de lectura con el disco, lo que provocaría una alteración no deseada en los medios.Análisis[editar]Proceso de aplicar técnicas científicas y analíticas a los medios duplicados por medio del proceso forense para poder encontrar pruebas de ciertas conductas. Se pueden realizar búsquedas de cadenas de caracteres, acciones específicas del o de los usuarios de la máquina como son el uso de dispositivos de USB (marca, modelo), búsqueda de archivos específicos, recuperación e identificación de correos electrónicos, recuperación de los últimos sitios visitados, recuperación del caché del navegador de Internet, etc.Presentación[editar]Es el recopilar toda la información que se obtuvo a partir del análisis para realizar el reporte y la presentación a los abogados, jueces o instancias que soliciten este informe, la generación (si es el caso) de una pericial y de su correcta interpretación sin hacer uso de tecnicismos; se deberá presentar de manera cauta, prudente y discreta al solicitante la documentación ya que siempre existirán puertas traseras dentro del sistema en observación y debe ser muy especifica la investigación dentro del sistema que se documenta porque se compara y vincula una plataforma de telecomunicación y computo forense y que están muy estrechamente enlazadas no omitiendo los medios de almacenamiento magnéticos portables estos son basamentos sobre software libre y privativo. deberá ser muy cuidadosa la información a entregar porque se maneja el prestigio técnico según la plataformas y sistemasPara poder realizar con éxito su trabajo, el investigador nunca debe olvidar:Ser imparcial. Solamente analizar y reportar lo encontrado.Realizar una investigación formal sin conocimiento y experiencia.Mantener la cadena de custodia (proceso que verifica la integridad y manejo adecuado de la evidencia).Documentar toda actividad realizada.El especialista debe conocer también sobre:Desarrollo de los exploit (vulnerabilidades), esto le permite al informático forense saber qué tipo de programas se pondrán de moda, para generar una base de estudio que le permita observar patrones de comportamiento.Herramientas de Cómputo Forense[editar]Sleuth Kit (Forensics Kit. Command Line)Autopsy (Forensics Browser for Sleuth Kit)Volatility (Reconstrucción y análisis de memoria RAM)Py-Flag (Forensics Browser)Dumpzilla (Forensics Browser: Firefox, Iceweasel and Seamonkey)dcfldd (DD Imaging Tool command line tool and also works with AIR)foremost (Data Carver command line tool)Air (Forensics Imaging GUI)md5deep (MD5 Hashing Program)netcat (Command Line)cryptcat (Command Line)NTFS-ToolsHetman software (Recuperador de datos borrados por los criminales)qtparted (GUI Partitioning Tool)regviewer (Windows Registry)ViewerX-Ways WinTraceX-Ways WinHexX-Ways ForensicsR-Studio Emergency (Bootable Recovery media Maker)R-Studio Network EdtionR-Studio RS AgentNet residentFacesEncaseSnortHelixNetFlowDeep Freezehiren´s bootCanaima 3.1Mini XPMetashield Analyser Online (Analizador de metadatos online)Exif Viewer (Visor de metadatos en imágenes)Herramientas para el análisis de discos duros[editar]AccessData Forensic ToolKit (FTK)Guidance Software EnCaseKit Electrónico de Transferencia de datosHerramientas para el análisis de correos electrónicos[editar]ParabenAccessData Forensic ToolKit (FTK)Herramientas para el análisis de dispositivos móviles[editar]Cellebrite UFED Touch 2, Physical Analyzer.AccessData Mobile Phone Examiner Plus (MPE+)Herramientas para el análisis de redes[editar]E-Detective - Decision Computer GroupSilentRunner - AccessDataNetworkMinerNetwitness InvestigatorHerramientas para filtrar y monitorear el tráfico de una red tanto interna como a internet[editar]TcpdumpUSBDeviewSilentRunner - AccessDataWireSharkBibliografía[editar]"Informática Forense - 44 casos reales". ISBN 978-84-615-8121-4. Autor: Ernesto Martínez de Carvajal Hedrich (2012)"Peritaje Informático y Tecnológico". ISBN 978-84-616-0895-9. Autor: Rafael López Rivera (Nov. 2012)"Introducción al análisis forense telemático y ejemplo práctico". ISBN 9978-84-692-3343-6. Autor: José Luis Rivas López (Nov. 2009)Véase también[editar]Anexo:Lista de software de recuperación de datosDelitos informáticosIngeniería inversaReferencias[editar]Categorías: Seguridad informáticaCiencias forenses

a

MALWARE INFORMATICO

r

MalwareEste artículo o sección necesita una revisión de ortografía y gramática.Puedes colaborar editándolo. Cuando se haya corregido, puedes borrar este aviso. Si has iniciado sesión, puedes ayudarte del corrector ortográfico, activándolo en: Mis preferencias → Accesorios → Navegación →  El corrector ortográfico resalta errores ortográficos con un fondo rojo. Este aviso fue puesto el 23 de agosto de 2017. El malware suele ser representado con símbolos de peligro o advertencia de archivo malicioso.El malware (del inglés malicious software), programa malicioso1​ o programa maligno, también llamado badware, código maligno, software malicioso, software dañino o software malintencionado, es un tipo de software que tiene como objetivo infiltrarse o dañar una computadora o sistema de información. El término malware es muy utilizado por profesionales de la informática para referirse a una variedad de software hostil, intrusivo o molesto.2​Antes de que el término malware fuera acuñado por Yisrael Radai en 1990, el softwaremalicioso se agrupaba bajo el término «virus informático».3​Un software se cataloga como un programa malicioso en función de los efectos que provoque en un computador. El malware no es lo mismo que «software defectuoso»; este último contiene errores peligrosos, pero no de forma intencionada.Los estudios de Symantec publicados en 2008 sugerían que «el ritmo al que se ponen en circulación códigos maliciosos y otros programas no deseados podría haber superado al de las aplicaciones legítimas».4​ Según un informe de F-Secure, «se produjo tanto malware en 2007 como en los 20 años anteriores juntos».5​Según Panda Security, durante los doce meses del 2011 se crearon 73 000 nuevos ejemplares de amenazas informáticas por día, 10 000 más de la media registrada en todo 2010. De estas, el 73 % fueron troyanos y crecieron de forma exponencial los del subtipo de descarga.6​7​Índice  [ocultar] 1Propósito2Malware infeccioso: virus y gusanos3Malware oculto: puerta trasera, drive-by downloads, rootkits y troyanos3.1Puertas traseras3.2Drive-by download3.3Rootkits3.4Troyanos4Malware para obtener beneficios4.1Mostrar publicidad: spyware, adware y hijacking4.2Robar información personal: keyloggers y stealers4.3Realizar llamadas telefónicas: dialers4.4Ataques distribuidos: Botnets4.5Otros tipos: Rogue software y ransomware4.5.1Ransomware5Grayware o greynet6Vulnerabilidades usadas por el malware6.1Eliminando código sobre-privilegiado7Programas anti-malware8Métodos de protección9Véase también9.1Compañías antimalware10ReferenciasPropósito[editar] Malware por categorías el 16 de marzo de 2011.Algunos de los primeros programas maliciosos, incluido el gusano Morris y algunos virus de MS-DOS, fueron elaborados como experimentos, como bromas o simplemente como algo molesto, no para causar graves daños en las computadoras. En algunos casos el programador no se daba cuenta de cuánto daño podía hacer su creación. Algunos jóvenes que estaban aprendiendo sobre los virus los crearon con el único propósito de demostrar que podían hacerlo o simplemente para ver con qué velocidad se propagaban. Incluso en 1999 un virus tan extendido conocido como Melissa parecía haber sido elaborado tan solo como una travesura.El software creado para causar daños o pérdida de datos suele estar relacionado con actos delictivos. Muchos virus son diseñados para destruir archivos en disco duro o para corromper el sistema de archivosescribiendo datos inválidos. Algunos gusanos son diseñados para vandalizar páginas web dejando escrito el alias del autor o del grupo por todos los sitios por donde pasan. Estos gusanos pueden parecer el equivalente informático del grafiti.Sin embargo, debido al aumento de usuarios de internet, el software malicioso ha llegado a ser diseñado para sacar beneficio de él, ya sea legal o ilegalmente. Desde 2003, la mayor parte de los virus y gusanos han sido diseñados para tomar control de computadoras para su explotación en el mercado negro. Estas computadoras infectadas conocidas como zombis son usadas para el envío masivo de correo basura para alojar datos ilegales como pornografía infantil8​ o para unirse en ataques de denegación de servicio distribuido (DDoS) como forma de extorsión, entre otras cosas.Hay muchos más tipos de malware producido con ánimo de lucro, como el spyware, el adware intrusivo y los secuestradores tratan de mostrar publicidad no deseada o redireccionar visitas hacia publicidad para beneficio del creador. Estos tipos de malware no se propagan como los virus, ya que generalmente son instalados aprovechándose de vulnerabilidades de los sistemas o junto con software legítimo como las aplicaciones informáticas de tipo descarga de contenido (P2P).Malware infeccioso: virus y gusanos[editar]Artículos principales: Virus, Gusano y Robert Tappan, creador del 1er Gusano. Código fuente del gusano Morris. Virus de ping-pong.Los tipos más conocidos de malware, virus y gusanos se distinguen por la manera en que se propagan, más que por otro comportamiento particular.9​El término virus informático se usa para designar un programa que, al ejecutarse, se propaga infectando otro software ejecutable dentro de la misma computadora. Los virus también pueden tener una carga útil10​ que realice otras acciones a menudo maliciosas, por ejemplo, borrar archivos. Por otra parte, un gusano es un programa que se transmite a sí mismo, explotando vulnerabilidades en una red de computadoras para infectar otros equipos. El principal objetivo es infectar a la mayor cantidad posible de usuarios, y también puede contener instrucciones dañinas al igual que los virus.Nótese que un virus necesita de la intervención del usuario para propagarse mientras que un gusano se propaga automáticamente. Teniendo en cuenta esta distinción, las infecciones transmitidas por correo electrónico o documentos de Microsoft Word, que dependen de su apertura por parte del destinatario para infectar su sistema, deberían ser clasificadas más como virus que como gusanos.Malware oculto: puerta trasera, drive-by downloads, rootkits y troyanos[editar]Para que un software malicioso pueda completar sus objetivos, es esencial que permanezca oculto al usuario. Por ejemplo, si un usuario experimentado detecta un programa malicioso, terminaría el proceso y borraría el malware antes de que este pudiera completar sus objetivos. El ocultamiento también puede ayudar a que el malware se instale por primera vez en la computadora.Puertas traseras[editar]Artículo principal: Puerta traseraUna puerta trasera (en inglés, backdoor) es un método para eludir los procedimientos habituales de autenticación al conectarse a una computadora. Una vez que el sistema ha sido comprometido (por uno de los anteriores métodos o de alguna otra forma), puede instalarse una puerta trasera para permitir un acceso remoto más fácil en el futuro. Las puertas traseras también pueden instalarse previamente al software malicioso para permitir la entrada de los atacantes.Los crackers suelen usar puertas traseras para asegurar el acceso remoto a una computadora, intentando permanecer ocultos ante una posible inspección. Para instalar puertas traseras los crackers pueden usar troyanos, gusanos u otros métodos.Se ha afirmado, cada vez con mayor frecuencia, que los fabricantes de ordenadores preinstalan puertas traseras en sus sistemas para facilitar soporte técnico a los clientes, pero no ha podido comprobarse con seguridad.11​Un malware en Skype está siendo el problema reciente en la seguridad, debido a que a mayo del 2013, existían ya 750 mil afectados siendo el 67 % en Latinoamérica. El código malicioso afecta al equipo y se propaga entre los contactos a través de este mismo medio de comunicación.12​Drive-by download[editar]Google ha descubierto que una de cada 10 páginas web que han sido analizadas a profundidad puede contener las llamadas drive-by downloads o descargas automáticas, que son sitios que instalan spyware o códigos que dan información de los equipos sin que el usuario se percate. 13​A estas acciones Niels Provos y otros colaboradores de Google le denominaron, en un artículo, «el fantasma en la computadora».14​ Por ello, se están realizando esfuerzos para identificar las páginas que pudieran ser maliciosas.El término puede referirse a las descargas de algún tipo de malware que se efectúa sin consentimiento del usuario, lo cual ocurre al visitar un sitio web, al revisar un mensaje de correo electrónico o al entrar a una ventana emergente, la cual puede mostrar un mensaje de error. Sin ser su verdadera intención, el usuario consiente la descarga de software indeseable o de malware, y estas vulnerabilidades se aprovechan.El proceso de ataque Drive-by Downloads se realiza de manera automática mediante herramientas que buscan en el sitio web alguna vulnerabilidad. Una vez encontrada, insertan un script malicioso dentro del código HTML del sitio violado. Cuando un usuario visita el sitio infectado, este descargará dicho script en el sistema del usuario, y a continuación realizará una petición a un servidor Hop Point, donde se solicitarán nuevos scripts con exploits encargados de comprobar si el equipo tiene alguna vulnerabilidad que pueda ser explotada, intentando con ellas hasta que tienen éxito, en cuyo caso se descargará un script que descarga el archivo ejecutable (malware) desde el servidor.En la mayor parte de los navegadores se están agregando bloqueadores antiphishing y antimalware que contienen alertas que se muestran cuando se accede a una página web dañada, aunque no siempre dan una total protección.Rootkits[editar]Artículo principal: RootkitLas técnicas conocidas como rootkits modifican el sistema operativo de una computadora para permitir que el malware permanezca oculto al usuario. Por ejemplo, los rootkits evitan que un proceso malicioso sea visible en la lista de procesos del sistema o que sus ficheros sean visibles en el explorador de archivos. Este tipo de modificaciones consiguen ocultar cualquier indicio de que el ordenador está infectado por un malware. Originalmente, un rootkit era un conjunto de herramientas instaladas por un atacante en un sistema Unix donde el atacante había obtenido acceso de administrador (acceso root). Actualmente, el término es usado generalmente para referirse a la ocultación de rutinas en un programa malicioso.Algunos programas maliciosos también contienen rutinas para evitar ser borrados, no solo para ocultarse. Un ejemplo de este comportamiento puede ser:“Existen dos procesos-fantasmas corriendo al mismo tiempo. Cada proceso-fantasma debe detectar que el otro ha sido terminado y debe iniciar una nueva instancia de este en cuestión de milisegundos. La única manera de eliminar ambos procesos-fantasma es eliminarlos simultáneamente, cosa muy difícil de realizar, o provocar un error el sistema deliberadamente.”15​Uno de los rootkits más famosos fue el que la empresa Sony BMG Music Entertainment. Secretamente incluyó, dentro de la protección anticopia de algunos CD de música, el software “Extended Copy Protection (XCP) y MediaMax CD-3”,16​ los cuales modificaban a Windows para que no lo pudiera detectar y también resultar indetectable por los programas anti-virus y anti-spyware. Actuaba enviando información sobre el cliente, además abrió la puerta a otros tipos de malware que pudieron infiltrarse en las computadoras, además de que si se detectaba, no podía ser eliminado, pues se dañaba el sistema operativo.Mikko Hypponen, jefe de investigación de la empresa de seguridad F-Secure, con sede en Finlandia, consideró a este rootkit como uno de los momentos fundamentales de la historia de los malware.17​Troyanos[editar]Artículo principal: TroyanoEl término troyano suele ser usado para designar a un malware que permite la administración remota de una computadora, de forma oculta y sin el consentimiento de su propietario, por parte de un usuario no autorizado. Este tipo de malware es un híbrido entre un troyano y una puerta trasera, no un troyano atendiendo a la definición.A grandes rasgos, los troyanos son programas maliciosos que están disfrazados como algo inocuo o atractivo que invitan al usuario a ejecutarlo ocultando un softwaremalicioso. Ese software, puede tener un efecto inmediato y puede llevar muchas consecuencias indeseables, por ejemplo, borrar los archivos del usuario o instalar más programas indeseables o maliciosos.Los tipos de troyanos son: backdoors, banker, botnets, dialer, dropper, downloaders, keylogger, password stealer, proxy.18​19​Los troyanos conocidos como droppers20​21​ son usados para empezar la propagación de un gusano inyectándolo dentro de la red local de un usuario.Una de las formas más comunes para distribuir spyware es mediante troyanos unidos a software deseable descargado de Internet. Cuando el usuario instala el software esperado, el spyware es puesto también. Los autores de spyware que intentan actuar de manera legal pueden incluir unos términos de uso, en los que se explica de manera imprecisa el comportamiento del spyware, que los usuarios aceptan sin leer o sin entender.Malware para obtener beneficios[editar]Durante los años 1980 y 1990, se solía dar por hecho que los programas maliciosos eran creados como una forma de vandalismo o travesura. Sin embargo, en los últimos años la mayor parte del malware ha sido creado con un fin económico o para obtener beneficios en algún sentido. Esto es debido a la decisión de los autores de malware de sacar partido monetario a los sistemas infectados, es decir, transformar el control sobre los sistemas en una fuente de ingresos.Mostrar publicidad: spyware, adware y hijacking[editar]Artículos principales: Spyware, Adware e Hijacking.Los programas spyware son creados para recopilar información sobre las actividades realizadas por un usuario y distribuirla a agencias de publicidad u otras organizaciones interesadas. Algunos de los datos que recogen son las páginas web que visita el usuario y direcciones de correo electrónico, a las que después se envía spam. La mayoría de los programas spyware son instalados como troyanos junto a software deseable bajado de Internet. Otros programas spyware recogen la información mediante cookies de terceros o barra de herramientas instaladas en navegadores web. Los autores de spyware que intentan actuar de manera legal se presentan abiertamente como empresas de publicidad e incluyen unos términos de uso, en los que se explica de manera imprecisa el comportamiento del spyware, que los usuarios aceptan sin leer o sin entender.Los Spyware tienen como objetivo recopilar información del equipo en el que se encuentra y transmitírselo a quien lo ha introducido en el equipo. Suele camuflarse tras falsos programas, por lo que el usuario raramente se da cuenta de ello. Sus consecuencias son serias y van desde robos bancarios, suplantaciones de identidad hasta robo de información.22​Por otra parte los programas adware muestran publicidad al usuario de forma intrusiva en forma de ventana emergente (pop-up) o de cualquier otra forma. Esta publicidad aparece inesperadamente en el equipo y resulta muy molesta. Algunos programas shareware permiten usar el programa de forma gratuita a cambio de mostrar publicidad, en este caso el usuario consiente la publicidad al instalar el programa. Este tipo de adware no debería ser considerado malware, pero muchas veces los términos de uso no son completamente transparentes y ocultan lo que el programa realmente hace.Los hijackers son programas que realizan cambios en la configuración del navegador web. Por ejemplo, algunos cambian la página de inicio del navegador por páginas web de publicidad o página pornográfica, otros redireccionan los resultados de los buscadores hacia anuncios de pago o páginas de phishing bancario. El pharming es una técnica que suplanta al DNS, modificando el archivo hosts, para redirigir el dominio de una o varias páginas web a otra página web, muchas veces una web falsa que imita a la verdadera. Esta es una de las técnicas usadas por los hijackers o secuestradores del navegador de Internet. Esta técnica también puede ser usada con el objetivo de obtener credenciales y datos personales mediante el secuestro de una sesión.Robar información personal: keyloggers y stealers[editar] Un ejemplo de cómo un hardware PS/2 keylogger está conectado.Artículos principales: Keylogger y Stealer.Cuando un software produce pérdidas económicas para el usuario de un equipo, también se clasifica como crimeware23​ o software criminal, término dado por Peter Cassidy para diferenciarlo de los otros tipos de software malicioso. Estos programas están encaminados al aspecto financiero, la suplantación de personalidad y el espionaje.Los keyloggers y los stealers son programas maliciosos creados para robar información sensible. El creador puede obtener beneficios económicos o de otro tipo a través de su uso o distribución en comunidades underground. La principal diferencia entre ellos es la forma en la que recogen la información.Los keyloggers monitorizan todas las pulsaciones del teclado y las almacenan para un posterior envío al creador. Por ejemplo al introducir un número de tarjeta de crédito el keylogger guarda el número, posteriormente lo envía al autor del programa y este puede hacer pagos fraudulentos con esa tarjeta. Si las contraseñas se encuentran recordadas en el equipo, de forma que el usuario no tiene que escribirlas, el keylogger no las recoge, eso lo hacen los stealers. La mayoría los keyloggers son usados para recopilar contraseñas de acceso pero también pueden ser usados para espiar conversaciones de chat u otros fines.Los stealers también roban información privada pero solo la que se encuentra guardada en el equipo. Al ejecutarse comprueban los programas instalados en el equipo y si tienen contraseñas recordadas, por ejemplo en los navegadores web o en clientes de mensajería instantánea, descifran esa información y la envían al creador.Realizar llamadas telefónicas: dialers[editar]Artículo principal: DialerLos dialers son programas maliciosos que toman el control del módem dial-up, realizan una llamada a un número de teléfono de tarificación especial, muchas veces internacional, y dejan la línea abierta cargando el coste de dicha llamada al usuario infectado. La forma más habitual de infección suele ser en páginas web que ofrecen contenidos gratuitos pero que solo permiten el acceso mediante conexión telefónica. Suelen utilizar como señuelos videojuegos, salva pantallas, pornografía u otro tipo de material.Actualmente la mayoría de las conexiones a Internet son mediante ADSL y no mediante módem, lo cual hace que los dialers ya no sean tan populares como en el pasado.Ataques distribuidos: Botnets[editar] Ciclo de spam(1): Sitio web de Spammers(2): Spammer(3): Spamware(4): equipos infectados(5): Virus o troyanos(6): Servidores de correo(7): Usuarios(8): Tráfico Web.Artículo principal: BotnetLas botnets son redes de computadoras infectadas, también llamadas “zombis”, que pueden ser controladas a la vez por un individuo y realizan distintas tareas. Este tipo de redes son usadas para el envío masivo de spam o para lanzar ataques DDoScontra organizaciones como forma de extorsión o para impedir su correcto funcionamiento. La ventaja que ofrece a los spammersel uso de ordenadores infectados es el anonimato, que les protege de la persecución policial.En una botnet cada computadora infectada por el malware se loguea en un canal de IRC u otro sistema de chat desde donde el atacante puede dar instrucciones a todos los sistemas infectados simultáneamente. Las botnets también pueden ser usadas para actualizar el malware en los sistemas infectados manteniéndolos así resistentes ante antivirus u otras medidas de seguridad.Otros tipos: Rogue software y ransomware[editar]Artículo principal: Rogue softwareEl rogue software hace creer al usuario que la computadora está infectada por algún tipo de virus u otro tipo de softwaremalicioso, esto induce al usuario a pagar por un software inútil o a instalar un software malicioso que supuestamente elimina las infecciones, pero el usuario no necesita ese software puesto que no está infectado.24​Ransomware[editar]También llamados criptovirus o secuestradores, son programas que cifran los archivos importantes para el usuario, haciéndolos inaccesibles, y piden que se pague un «rescate» para poder recibir la contraseña que permite recuperar los archivos.InfoSpyware reporta en su blog que a partir de mayo del 2012, han existido dos variantes del llamado «virus de la policía» o «Virus Ukash», que es producido por el troyano Ransom.ab, que con el pretexto de que se entró a páginas de pornografía infantil, se les hace pagar una supuesta multa para poder desbloquear sus equipos,25​ actualmente también utilizando la propia cámara Web del equipo hacen unas supuestas tomas de vídeo que anexan en su banner de advertencia, para asustarlos más al hacerlos pensar que están siendo observado y filmado por la policía, siendo Rusia, Alemania, España y Brasil los países más afectados o la versión falsa del antivirus gratuito 

a

COMUNIDADES VIRTUALES

r

Comunidad virtualEste artículo tiene referencias, pero necesita más para complementar su verificabilidad.Puedes colaborar agregando referencias a fuentes fiables como se indica aquí. El material sin fuentes fiables podría ser cuestionado y eliminado.Este aviso fue puesto el 9 de julio de 2017.Se denomina comunidad virtual a aquella sección de datos procesados entre sí, cuyos vínculos, interacciones, relaciones, comunicaciones, y técnicas tienen lugar, no en un espacio virtual sino en un espacio físico como el CPU. Las comunidades virtuales se forman a partir de procesos similares entre un grupo de personas, que su trabajo es organizar en secciones la gran red de Internet . Se organizan y se llevan a cabo a partir de servicios en linea. Puede ser de cualquier tema o de cualquier estudio tecnológico, no hay negaciones. Las comunidades saben que son redes, evolucionan de este modo, ampliando los miembros, diversificándose entre sí, nacen en el ciberespacio.1​El término de comunidad virtual fue utilizado por primera vez por Howard Rheinhold, en su Libro: La comunidad virtual: Una sociedad sin fronteras, escrito en 1994.Índice  [ocultar] 1Historia2BBS vs Internet3Definición4Objetivos5Tipos6Aspectos a considerar7Beneficios que aportan y otros varios8Véase también9ReferenciasHistoria[editar]La idea comunidades virtuales surge a principios de los años ´90 cuando aparece Internet, y en el caso de comunidades informáticas anteriores, a la implementación de ARPANET y el desarrollo de los BBSs. Las primeras comunidades virtuales nacen en la década de los años ´70 y se multiplicaron durante los años ´80, científicas, académicas y militares en el caso de ARPANET, y civiles para las BBSs. Pero no es sino hasta los años ´90 cuando se desarrollan de forma exponencial, gracias al levantamiento de la prohibición del uso comercial de Internet, al nacimiento de la World Wide Web (WWW) y la generalización de herramientas como el correo electrónico, los chats y la mensajería instantánea.Los usuarios civiles, sin acceso a Internet, implementaron y popularizaron el uso del BBS o Bulletin Board System (Sistema de Tablón de Anuncios), un sistema que funcionaba mediante acceso por módem mediante línea telefónica a una central (el BBS) que podía basarse en una o más líneas telefónicas. En los BBS era posible entablar conversaciones, publicar comentarios, intercambiar archivos, etc. Por lo mismo que eran accedidos por línea telefónica, eran comunidades independientes. Era muy común en la época que individuos particulares utilizaran sus equipos propios de casa para proveer el servicio hasta con un solo módem de entrada.Hoy en día, las comunidades virtuales son una herramienta muy útil desde un punto de vista empresarial, ya que permiten a las organizaciones mejorar su dinámica de trabajo interno, las relaciones con sus clientes o incrementar su eficiencia procedimental. En cuanto a su función social, las comunidades virtuales se han convertido en un lugar en el que el individuo puede desarrollarse y relacionarse con los demás, actuando así como un instrumento de socialización y de esparcimiento. Según estimaciones de Kozinets (1999), en el año [2000] existían en la red más de 40 millones de comunidades virtuales. En el caso de las organizaciones para el desarrollo, los voluntarios en línea juegan un papel crucial en la creación y desarrollo de comunidades virtuales.2​BBS vs Internet[editar]A la aparición de Internet y su libre acceso a la comunidad civil en general, los BBS cayeron en desuso rápidamente pues la limitante de compartir un solo espacio era ampliamente superada por el libre acceso a Internet a muchas redes a la vez, permitiendo crear grupos de intereses diversos y contactarlos en una misma sesión telefónica.Además, el creciente interés por Internet de distintos grupos impulsó el desarrollo de tecnologías como bases de datos y mayor seguridad que permitieron al público en general montar, de manera más económica, grupos de interés con alcances mayores rebasando las fronteras de los países sede y obteniendo intercambio con otros grupos de interés a largas distancias sin la necesidad de cerrarse a conexiones telefónicas con grupos únicos.Aunque algunos de los BBS más famosos migraron sus plataformas a Internet, es poco común su uso para las nuevas generaciones que han crecido con las plataformas más populares, que actualmente permiten crear comunidades en muy pocos minutos como los grupos de Yahoo! Groups y Microsoft Groups entre otros.Definición[editar]Una comunidad virtual es un grupo de personas que comprende sujetos (individuales, colectivos, institucionales) que:Desean interactuar para satisfacer sus necesidades o llevar a cabo roles específicos.Comparten un propósito determinado que constituye la razón de ser de la comunidad virtual.Con unos sistemas informáticos que medían las interacciones y facilitan la cohesión entre los miembros.El mayor freno que existe al desarrollo de comunidades es la dificultad de organización interna de las mismas.Plantilla:Cita comunidades virtuales En muchos casos, se pierde demasiado tiempo creando la estructura de la comunidad, con lo que se llega a perder el verdadero sentido de la misma, confundiendo la estructura con el ser del grupo.[cita requerida]La comunidad Virtual queda definida por 3 aspectos distintos:La comunidad virtual como un lugar: en el que los individuos pueden mantener relaciones de carácter social o económico. Como se llevan a cabo en el ciberespacio, no existen límites geográficos, solo una referencia en internet.3​ Esto posibilita la unión de personas a grandes distancias, facilitando comunicación entre ellos.La comunidad virtual como un símbolo: ya que la comunidad virtual posee una dimensión simbólica. Los individuos tienden a sentirse simbólicamente unidos a la comunidad virtual, creándose una sensación de pertenencia.La comunidad virtual como virtual: las comunidades virtuales poseen rasgos comunes a las comunidades físicas. El rasgo diferenciador de la comunidad virtual es que ésta se desarrolla, al menos parcialmente, en un lugar virtual, o en un lugar construido a partir de conexiones telemáticas. A diferencia de comunidades tradicionales, no se necesita llevar una relación cara a cara entre miembros.Objetivos[editar]Los objetivos principales de la comunidad virtual son los siguientes:Intercambiar información (obtener respuestas correctas)Ofrecer apoyo (empatía, expresar emoción)Conversar y socializar de manera informal a través de la comunicación simultáneaDebatir, normalmente a través de la participación de moderadores.Tipos[editar]Hay diferentes tipos de comunidades virtuales[cita requerida]:Foros de discusión (moderados, no moderados, abiertos o cerrados)Redes sociales (Facebook, Twitter, Instagram)Correo electrónico y grupos de correo electrónicoGrupos de noticiasVideoconferenciasChat (Webchat, Chats tipo IRC, multimedia chats)Dimensión de Usuario Múltiple: es un sistema que permite a sus usuarios convertirse en el personaje que deseen y visitar mundos imaginarios en los que participar junto a otros individuos en juegos u otro tipo de actividad.Gestores de contenidoSistemas Peer to Peer (P2P)BBS (sistema de tablón de anuncios)Y además de las de carácter informático, existen las que se enlazan a través de otros medios:Cajas de chat populares a inicio de los 90, consistían en una central telefónica en la que coincidían varios usuarios.Comunidades de radioaficionados, tan antiguas como el mismo invento y vigentes aún en canales de radio abierta e intercambian información sin estar físicamente en el mismo sitio.Televisivas, generalmente con un programa como anfitrión que concentra los contactos de los miembros e intercambia con ellos a través de la emisión televisiva.Aspectos a considerar[editar]A continuación se muestran cuáles son los principales aspectos a considerar para alcanzar el máximo desarrollo de las iniciativas empresariales sustentadas en comunidades virtuales:4​Una comunidad virtual se asienta sobre 2 pilares fundamentales: La comunicación y un deseo de relación entre los miembros con intereses comunesMedir el éxitoFortalecer el sentimiento de comunidadAnalizar necesidadesFomentar la autogestiónMinimizar el controlEspecializar papelesEstructura tecnológicaBeneficios que aportan y otros varios[editar]Los principales beneficios que aportan las comunidades virtuales en los negocios son los siguientes:5​BrandingMarketing de relacionesReducción de costosProvisión de ingresosDesarrollo de nuevos productosIntroducción de nuevos productosCreación de barreras a la entradaAdquisición de nuevos clientesCiberculturaVéase también[editar] Portal:Internet. Contenido relacionado con Internet.Red social libreVoluntariado en líneaDiaspora*FriendicaGNU SocialStatusNetRetroShareOstatusServicio de red socialReferencias[editar]Volver arriba↑ Galindo Caceres, J. (2013). Construcción de una comunidad virtual. Signo y Pensamiento, 19(36), 93-102.Volver arriba↑ Servicio Voluntariado en Línea - Equipo PNUD BrasilVolver arriba↑ Sádaba, C. (2000). Interactividad y comunidades virtuales en el entorno de la World Wide Web.Volver arriba↑ «Referente de comunidad en comercio electrónico chino». Consultado el 12 de septiembre de 2017.Volver arriba↑ Beneficios de las comunidades y las redes sociales en las empresasThe virtual Comunity. Versión online del libro de Howard Rheingold en su página personal. Consultada el 6 de agosto de 2008. (Inglés)Comparativa de software y protocolos para las redes sociales distribuidas: Artículo en inglés1​ 2​3​

a

LAS TIC EN COLOMBIA

r

Acerca del MinTIC.<< AnteriorSiguiente >>Colombia es líder mundial en gestión de espectroLa Asociación Mundial de Operadores Móviles - GSMA - entregó a Colombia la máxima distinción por su adecuada gestión del espectro electromagnético para comunicaciones móviles banda ancha. El galardón fue recibido por Martha Suárez, Directora de la ANE, en el marco del Mobile World Congress de Barcelona.12345PausarPresentaciónFuncionesNoticiasDocumentosÚltima actualización: 09 de marzo de 2018Quienes SomosEl Ministerio de Tecnologías de la Información y las Comunicaciones, según la Ley 1341 o Ley de TIC, es la entidad que se encarga de diseñar, adoptar y promover las políticas, planes, programas y proyectos del sector de las Tecnologías de la Información y las Comunicaciones.Dentro de sus funciones está incrementar y facilitar el acceso de todos los habitantes del territorio nacional a las Tecnologías de la Información y las Comunicaciones y a sus beneficios.Misión y VisiónMisiónEl Ministerio de Tecnologías de la Información y las Comunicaciones promueve el acceso, uso efectivo y apropiación masivos de las TIC, a través de políticas y programas, para mejorar la calidad de vida de cadacolombiano y el incremento sostenible del desarrollo del país.VisiónEn el 2018, el Ministerio de las Tecnologías de la Información y las Comunicaciones estará preparado para enfrentar los retos de la economía digital y habrá logrado posicionar al país como referente en el desarrollo de aplicaciones sociales y contenidos digitales.Contribuirá al desarrollo social y económico del país, al desarrollo integral de los ciudadanos y la mejora en su calidad de vida, mediante la investigación, promoción y apropiación del uso de nuevas tecnologías y la implementación de un modelo organizacional efectivo.Objetivos y funcionesLos objetivos del Ministerio de Tecnologías de la Información y las Comunicaciones, conforme lo dispuesto por el artículo 17 de la Ley 1341 de 2009 son:1. Diseñar, formular, adoptar y promover las políticas, planes, programas y proyectos del Sector de Tecnologías de la Información y las Comunicaciones, en correspondencia con la Constitución Política y la ley, con el fin de contribuir al desarrollo económico, social y político de la Nación y elevar el bienestar de los colombianos.2. Promover el uso y apropiación de las Tecnologías de la Información y las Comunicaciones entre los ciudadanos, las empresas, el Gobierno y demás instancias nacionales como soporte del desarrollo social, económico y político de la Nación.3. Impulsar el desarrollo y fortalecimiento del Sector de Tecnologías de la Información y las Comunicaciones, promover la investigación e innovación, buscando su competitividad y avance tecnológico conforme al entorno nacional e internacional.4. Definir la política y ejercer la gestión, planeación y administración del espectro radioeléctrico y de los servicios postales y relacionados, con excepción de lo que expresamente determine la ley.PRINCIPIOSSomos conscientes de nuestros impactos ambientales, por lo que en el desarrollo de nuestros proyectos, tenemos en cuenta la implementación de las mejores prácticas ambientales.Promovemos estrategias de autocontrol que garantizan prácticas administrativas correctas de los servidores, evitando así hechos de corrupción.Contamos con personas que generan sinergias para fortalecer de manera integral los procesos que impactan la gestión.Estimulamos el desarrollo de un ambiente laboral integral, con total inclusión de cada uno de sus colaboradores, generando un continuo sentido de pertenencia y un equilibrio entre la vida personal y laboral.Mejoramos la calidad de vida de los colombianos promoviendo el desarrollo social a través del acceso, uso y apropiación responsable de las TIC.VALORESHonestidadActúo siempre con fundamento en la verdad, cumpliendo mis deberes con transparencia y rectitud, y siempre favoreciendo el interés general.RespetoReconozco, valoro y trato de manera digna a todas las personas, con sus virtudes y defectos, sin importar su labor, su procedencia, títulos o cualquier otra condición.CompromisoSoy consciente de la importancia de mi rol como servidor público y estoy en disposición permanente para comprender y resolver las necesidades de las personas con las que me relaciono en mis labores cotidianas, buscando siempre mejorar su bienestar.DiligenciaCumplo con los deberes, funciones y responsabilidades asignadas a mi cargo de la mejor manera posible, con atención, prontitud, destreza y eficiencia, para así optimizar el uso de los recursos del Estado.JusticiaActúo con imparcialidad garantizando los derechos de las personas, con equidad, igualdad y sin discriminación.ResponsabilidadTomo decisiones conscientes, teniendo en cuenta los impactos y consecuencias que puedan producirse por mis actos.Compartir: 

a

LAS TIC EN LA EDUCACION

r

s TIC en la educaciónInstagram ESTwitter ESFacebook ESYouTube ESiTunesLinkedInRssRespectzoneLas TIC en la educaciónLas tecnologías de la información y la comunicación (TIC) pueden complementar, enriquecer y transformar la educación.En su calidad de Organización principal de las Naciones Unidas para la educación, la UNESCO orienta el quehacer internacional con miras a ayudar a los países a entender la función que puede desarrollar esta tecnología en acelerar el avance hacia el Objetivo de Desarrollo Sostenible 4(link is external) (ODS4), una visión plasmada en la Declaración de Qingdao.La UNESCO comparte los conocimientos respecto a las diversas formas en que la tecnología puede facilitar el acceso universal a la educación, reducir las diferencias en el aprendizaje, apoyar el desarrollo de los docentes, mejorar la calidad y la pertinencia del aprendizaje, reforzar la integración y perfeccionar la gestión y administración de la educación.La Organización examina el mundo en busca de ejemplos exitosos de aplicación de las TIC a la labor pedagógica – ya sea en escuelas primarias de bajos recursos, universidades en países de altos ingresos o centros de formación profesional – con miras a elaborar políticas y directrices.Mediante actividades de fomento de la capacidad, asesoramiento técnico, publicaciones, investigaciones y conferencias internacionales como las Conferencias Internacionales sobre las TIC y la educación después de 2015 o la Semana del Aprendizaje Mediante Dispositivos Móviles, la UNESCO ayuda a los gobiernos y a otras partes interesadas a valerse de las tecnologías para fomentar el aprendizaje.Seguir leyendo                  1234Las competencias digitales son esenciales para el empleo y la inclusión socialÚLTIMAS NOTICIASdigital-learning-improving-livelihoods-nigeria-c-unesco_abuja.jpgEl aprendizaje digital mejora los medios de subsistencia en NigeriaUna docente incita a las niñas a estudiar ciencias y tecnología26 ABRIL 2018La UNESCO y BMZ empoderan a mujeres y niñas del ámbito rural mediante una formación en capacidades digitales10 ABRIL 2018Las competencias digitales, tema principal de la Semana del aprendizaje móvil05 ABRIL 2018La UNESCO y Pearson presentan el conjunto de estudios de casos para soluciones digitales inclusivas con motivo de la Semana mundial del aprendizaje móvil26 MARZO 2018INFORMACIÓN RELACIONADA¿Qué hace la UNESCO?Asesoramiento sobre políticasRecursos educativos abiertosAprendizaje móvilMarco de Competencias de los Docentes en materia de TICPremio para la utilización de las TIC en la educaciónTransformar la educación en África mediante las TICAprovechar las TIC para alcanzar las metas de Educación 2030Noticias

a

EMPRESAS Y SOCIEDAD

r

 La empresa y sociedades1.  En este trabajo veremos las características de las empresa, de los comerciantes y de la contabilidad. Para eso deberemos tener en cuanta las clasificaciones de los comerciantes, las clases de sociedades y la clasificación de las empresas.2.  Identificar las características esenciales de la empresa.  Establecer las diferencias entre las diferentes tipos de sociedad comercial.  Reconocer las normas para elaborar una escritura de constitución de una sociedad.  Enunciar las obligaciones de los comerciantes según el código de comercio.  Identificar cada uno de los campos de la contabilidad  Valorar la importancia de la contabilidad para el control de los negocios.3.  Según el código de comercio art. 25 “se entenderá por empresa toda actividad económica organizada para la producción, transformación , circulación administración o custodia de bienes o para la prestación de servicios”.  En toda empresa, grande o pequeña, de cualquier tipo se encuentran tres factores necesarios para que puedan realizar su actividad; ellos son:  Personas  Capital  trabajo  De acuerdo con su actividad 1. Agropecuarias 2. Mineras 3. Industriales 4. Comerciales 5. De servicios  De acuerdo con la procedencia de capital 1. Privada 2. Oficiales 3. De economía mixta  De acuerdo con el numero de propietarios 1. Pequeña empresa 2. Mediana empresa 3. Gran empresa4.  SEGÚN SU ACTIVIDAD: a. Empresas agropecuarias: son aquellas que explotan grandes cantidades de productos agrícolas EJ: granjas avícolas, invernaderos, granjas porcinas, etc. b. Empresas mineras: son aquellas cuyo objetivo principal es la explotación de recursos que se encuentran en el subsuelo EJ: empresas de petróleo, etc. c. Empresas industriales: son aquellas que se encargan de transformar la materia prima en productos elaborados o semielaborados EJ: fabrica de calzado, fabrica de ropa, etc.5. d. Empresas comerciales: son las empresas que se dedican a la compra y ventas de productos; colocan en el mercado los productos naturales, los semielaborados y terminado a mayor precio del comprado, obteniendo así una ganancias EJ: un supermercado, una empresa distribuidora de productos farmacéuticos, almacén de electrodomésticos, etc. e. Empresas de servicios: son las empresas que buscan prestar un servicio para satisfacer las necesidades de la comunidad, ya sea salud, educación, transporte, recreación, servicios públicos, seguros, y otros servicios. EJ: una empresa de aviación, un centro de salud, una universidad, una compañías de seguros, una corporación recreativa. Etc.6.  Según su tamaño a. Pequeña empresa: es aquella que maneja escaso capital y pocos empleados. Se caracteriza porque no existe una delimitación clara y definida en su funciones de administrador o propietario del capital de trabajo y los trabajadores; por ella existe una reducida división y especialización del trabajo EJ: miscelánea con 2 empleados. b. Mediana empresa: en este tipo de empresa se puede observar una mayor división y especialización del trabajo; en consecuencia, el numero de empleados es mayor que en el interior, la intervención y el rendimiento obtenido ya son considerable EJ: fabrica de dulce con 15 empleados. c. Gran empresa: es la de mayor organización. Posee personal técnico especializado para cada actividad. En este tipo de empresa se observa un gran división y especialización del trabajo y la inversión y las utilidades obtenidas son de mayor cuántica EJ: coca cola, babaría.7.  Según la procedencia del capital a. Empresas privadas: son aquellas que para su constitución y funcionamiento necesitan aportes de personas particulares. EJ: un centro educativo privado, supermercados de propiedades de una familia. b. Empresas oficiales o publicas: son aquellas que para su funcionamiento reciben aportes del estado. EJ: hospitales departamentales, los colegios nacionales. c. Empresas de economía mixta: son aquellas empresas que reciben aportes de personas particulares y también reciben aportes del estado. EJ: una universidades semioficiales.8. a. Concepto Son comerciante las personas que profesionalmente se ocupan en alguna de las actividades que la ley considera mercantiles. La calidad de comerciante se adquiere aunque la actividad mercantil se ejerza por medio apoderado, intermediario o interpuesta persona. b. ¿Quiénes son comerciantes? para todo efectos legales se presume que una persona ejerce el comercio cuando: I. Tienen establecimiento de comercio abierto II. Cuando se anuncia con algún medio publico9.  Es obligación de todo comerciante: 1. Matricularse en el registro mercantil 2. Inscribir en el registro mercantil todo los actos, libros y documentos respecto delos cuales la ley exige esa formalidad 3. llevar la contabilidad regular de sus negocios conforme a las preinscripciones legales 4. Conservar con arreglo a la ley, la correspondencia y demás documentos relacionados con sus negocios o actividades 5. Denunciar ante el juez competente la cesación en el pago corriente de sus obligaciones mercantiles 6. Abstenerse de ejecutar actos de competencia desleal10.  Clasificación de sociedades: de acuerdo con la forma de asociarse, las sociedades pueden ser: 1. Sociedades de personas: se clasifican en: a. Sociedades colectivas: se constituyen por 2 o mas personas, los socios pueden aportar dinero o bienes y su responsabilidad es ilimitada y solidaria. La razón social se forma con el nombre y/o apellido de uno o varios socios seguido de la expresión & compañía, hermanos e hijos b. Sociedad en comandita simple: se forma por 2 o mas personas de lo cual por menos una tiene responsabilidad ilimitada y solidaria.la razón social debe figurar el nombre o el apellido de los socios con responsabilidad ilimitada, seguido de la expresión & cía. EJ: torres & cía.11. 2. Sociedades de capital: se clasifican en: a. Sociedades anónimas: se forman de un mínimo de 5 socios el capital aportado esta representado en acciones la razón social se forma con el nombre que caracteriza a la empresa seguido de la expresión S.A. EJ: babaría S.A. EJ: coca cola S.A. b. Sociedades en comandita por acciones: se constituye por 1 o mas socios con responsabilidad ilimitada y 5 o mas socios con responsabilidad limitada. El capital esta representado en títulos de igual valor. Se distingue por que la razón social de va acompañada de las iniciales S.C.A. ( sociedades en comandita por acciones) EJ: computadores y equipos S.C.A.12. 3. Sociedades mixtas: el prototipo de este tipo de sociedad es: a. Sociedades de responsabilidad limitada: los socios pueden ser mínimo 2, máximo 25. el capital esta dividido en cuotas de igual valor. La razón social esta seguida de la palabra limitada o de su abreviatura Ltda. 4. Sociedad sin animo de lucro: son las entidades que persiguen exclusivamente fines sociales, culturales, deportivos y de servicios, sin animo de lucro. EJ: el club el remanso, de propiedad de fondo de empleados.13.  CONCEPTO Es la disciplina que se encarga de determinar, medir y cuantificar los factores de riqueza de las empresas, con el fin de servir para la toma de decisiones y control, presentando la información, previamente registrada, de manera sistémica y útil para los distintos stakeholders. Es una técnica que produce sistemática y estructuradamente información cuantitativa, expresada en unidades monetarias acerca de las transacciones que efectúan las Entidades económicas y de ciertos eventos económicos identificables y cuantificables que la afectan, con la finalidad de facilitar a los diversos interesados, el tomar decisiones en relación con dichas Entidades. Otros conceptos indican a la contabilidad como una parte de la economía, y que en el ámbito de la empresa su principal labor es ayudar al área de Administración.14.  El estudio de la contabilidad sobre una base científica tuvo su primera manifestación escrita en los trabajos de Benedetto Cotrugli, un comerciant, economista, científico, diplomático y humanista croata radicado en Nápoles. En 1458 Cotrugli escribió el Libro de l'Arte de la Mercatura (Libro del arte del comercio) que contiene un apéndice con un inventario y varias anotaciones de un libro diario.  Posteriormente, en 1494, Luca Pacioli (1445-1517) publicó en Venecia su obra Summa de Arithmetica, Geometría, Proportioni e Proportionalita. En ella Pacioli dedicó treinta y seis capítulos a la descripción de los métodos contables empleados por los principales comerciantes venecianos. El autor dedicó, además, parte de sus trabajos a la descripción de otros usos mercantiles, tales como contratos de sociedad, el cobro de intereses y el empleo de las letras de cambio. Se dice que en la antigüedad usaban o sabían leer la famosa lengua parda o "lengua del diablo" que era usada para investigar la contabilidad en la época clásica, donde la contabilidad y los contadores de esa época eran los que manejaban todos los intercambios en el mercado.15. • La contabilidad permite: 1. Obtener en cualquier momento una información de ordenada y sistemática sobre el desenvolvimiento económico y financiero de la empresa. 2. Establecer en temimos monetarios, la cuantía de los bienes, deudas y el patrimonio que posee la empresa. 3. Llevar el control de todos los ingresos y egresos. 4. Facilitar la planeación, ya que no solamente da a conocer los efectos de una operación mercantil, sino que permitir prever situaciones futuras. 5. Determinar las utilidades o perdidas obtenidas al finalizar al ciclo contable 6. Servir de fuente fide digna de información ante terceros (los proveedores , los bancos y el estado)16.  Las contabilidad según el tipo de empresa donde se aplique puede ser: 1. Contabilidad privada: es la que se lleva en las empresas cuyos propietarios son personas particulares. De acuerdo con la actividad de las empresas en las cuales se lleve, la contabilidad se subdivide en : a) Contabilidad de costos: se utiliza en las empresas industriales; registra todas las operaciones económicas que conducen a determinar el costo de los productos semielaborados y terminados b) Contabilidad comercial: se utiliza en las empresa comerciales; se encarga de registrar todas las operaciones de compra y venta c) Contabilidad de servicios: su aplicación permite registrar las actividades económica desarrollada en la empresas prestadoras de servicios d) Contabilidad bancaria: se aplica en entidades financieras. Se utilizan para registra las operaciones en bancos y cooperaciones. 2. Contabilidad oficial: proporciona los mecanismos para registrar la actividades económica de las empresas estatales.17.  Para concluir este trabajo diremos lo qué aprendimos acerca de las empresas, en que se clasifican, también de los comerciante aprendimos sus obligaciones y de los objetivos de la contabilidadRecommendedPowerPoint: From Outline to PresentationOnline Course - LinkedIn LearningTraining Tips WeeklyOnline Course - LinkedIn LearningTeaching Techniques: Creating Effective Learning AssessmentsOnline Course - LinkedIn LearningEvolucion de la empresa en colombia (1)Ruben Castellanos SanchezLa contabilidadhha94Sistematizacion de la contabilidadhha94La contabilidadhha94Estados financieroshha94Estados financieroshha94La empresa y sociedades

a

CIRCUNSTANCIAS QUE LIMITAN LA EXPANSION DE LA TIC

r

Tecnología, Ciencia y EducacionSe ha producido un error en este gadget.viernes, 7 de enero de 2011CIRCUNSTANCIAS QUE LIMITAN LA EXPANSIÓN DE LAS TICLas TIC, fruto del desarrollo científico, influyen a su vez en su evolución, contribuyendo al desarrollo socioeconómico y modificando el sistema de valores vigente. Aunque, como dice Sáez Vacas (1995), "la tecnología cambia rápidamente hasta la forma como vivimos, pero en cambio nuestras propias concepciones del mundo se modifican con pereza".Por otra parte, aún queda camino por recorrer hasta que las TIC constituyan un instrumento "convivencial" en el sentido que lo enuncia Ivan Illich: instrumento que se puede manipular sin dificultad, no constituye el monopolio de una única clase de profesionales, repeta la autonomía personal y no degrada el entorno físico (p.e. el teléfono)La expansión de las TIC en todos los ámbitos y estratos de nuestra sociedad se ha producido a gran velocidad, y es un proceso que continua ya que van apareciendo sin cesar nuevos elementos tecnológicos. La progresiva disminución de los costes de la mayoría de los productos tecnológicos, fruto del incremento de los volúmenes de producción y de la optimización de los procesos fabriles, se deja sentir en los  precios y nos permite disponer de más prestaciones por el mismo dinero, facilitando la introducción de estas potentes tecnologías en todas las actividades humanas y en todos los ámbitos socioeconómicos. No obstante,  a pesar de estas magníficas credenciales que hacen de las TIC instrumentos altamente útiles para cualquier persona, y por supuesto imprescindibles para toda empresa,  existen diversas circunstancias que dificultan su más amplia difusión entre todas las actividades y capas sociales:- Problemáticas técnicas: incompatibilidades entre diversos tipos de ordenador y sistemas operativos, el ancho de banda disponible para Internet (insuficiente aún para navegar con rapidez y visualizar vídeo de calidad on-line), la velocidad aún insuficiente de los procesadores para realizar algunas tareas (reconocimiento de voz perfeccionado, traductores automáticos...)- Falta de formación: la necesidad de unos conocimientos teóricos y prácticos que todas las personas deben aprender, la necesidad de aptitudes y actitudes favorables a la utilización de estas nuevas herramientas (alfabetización en TIC).- Problemas de seguridad. Circunstancias como el riesgo de que se produzcan accesos no autorizados a los ordenadores de las empresas que están conectados a  Internet y el posible robo de los códigos de las tarjetas de crédito al comprar en las tiendas virtuales, frena la expansión del comercio electrónico y de un mayor aprovechamiento de las posibilidades de la Red.- Barreras económicas. A pesar del progresivo abaratamiento de los equipos y programas informáticos, su precio aún resulta prohibitivo para muchas familias. Además, su rápido proceso de obsolescencia aconseja la renovación de los equipos y programas cada cuatro o cinco años.- Barreras culturales: el idioma dominante, el inglés, en el que vienen muchas referencias e informaciones de Internet (hay muchas personas no lo conocen); la tradición en el uso de instrumentos tecnológicos avanzados (inexistente en muchos países poco desarrollados), etc.PROBABLE EVOLUCIÓN DE LAS TICA partir de las tendencias actuales, la evolución de las TIC en los próximos años puede estar caracterizada por los siguientes aspectos:- Progresivo aumento de los sistemas informáticos portátiles- Progresiva difusión de las pantallas planas (TFT)- Implantación de las tecnologías inalámbricas: ratón, teclado, impresoras, redes LAN...- Omnipresencia de los accesos a Internet.- Uso generalizado de los sistemas de banda ancha para las conexiones a Internet.- Telefonía móvil de tercera generación UMTS, con imagen y conexiones gráficas a Internet.- Suministros de software a través de Internet (se pagará según consumo, como la electricidad)- Multiplicación de las actividades que realizaremos desde el ciberespacio: telebanco, telemedicina, ocio...- Generalización de la "pizarra digital" en las aulas presenciales.........INTERNET Y LA SOCIEDAD EN RED. Síntesis del documento: CASTELLS, Manuel (2001). "Internet y la sociedad en red". En Lección inaugural del programa de doctorado sobre la sociedad de la información y el conocimiento. Barcelona: UOC- Internet es más que una tecnología, un medio para todo: medio de comunicación, de interacción, de organización social. Un medio en el que se basa una nueva sociedad en la que ya vivimos: la "sociedad en red".1.- Las lecciones de la historia de Internet. Se desarrolla (desde los años setenta) a partir de la interacción entre la investigación universitaria, los programas de investigación militar de los Estados Unidos y la contracultura radical.libertaria, que buscaban en ello un instrumento de liberación y autonomía respecto al Estado y las grandes empresas. No hubo aplicación militar de Internet, hubo financiación militar de Internet que los científicos utilizaron para sus estudios y la creación de sus redes tecnológicas. Dos décadas más tarde, la empresa impulsaría su uso social generalizado.- Desde el principio se desarrolla como un instrumento libre de comunicación, a partir de una arquitectura informática abierta de libre acceso y autogestionada, que fue progresivamente modificada colaborativamente por una red internacional de científicos y técnicos. Actualmente está gobernada por una sociedad privada apoyada por el gobierno USA y de otros países: ICANN.2.- La geografía de Internet. En Internet podemos distinguir dos tipos de geografía: la de los usuarios (muy concentrada en los países desarrollados) y la de los proveedores de contenido (concentradas en las principales áreas metropolitanas - Barcelona y Madrid en España- que es donde están las personas con la información y el conocimiento necesario)- Internet permite trabajar desde cualquier sitio (oficina móvil, oficina portátil, conexión ubicua...), pero no se está desarrollando el trabajo en casa.3.- La divisoria digital. Las personas que no tienen acceso a Internet tienen una debilidad cada vez mayor en el mercado de trabajo. Los territorios no conectados pierden competitividad económica. Además aparece un segundo elemento de división social más importante que la conectividad técnica: la capacidad educativa y cultural de utilizar Internet. Saber buscar la información, procesarla convertirla en conocimiento útil para lo que se quiera hacer, saber aprender a aprender...4.- Internet y la nueva economía. INternet ha permitido el desarrollo de las transacciones financieras electrónicas y de los mercados bursátiles virtuales, no obstante la nueva economía no es la de las empresas que producen o diseñan Internet, es la de las empresas que funcionan con y a través de INternet. En el comercio electrónico, un 80% son transacciones entre empresas, solamente un 20% es comercio a consumidores finales.5.- La sociabilidad en Internet. Internet desarrolla, pero no cambia, los comportamientos sociales. En general cuanto mayor es la red física de una persona, mayor es su red virtual (aunque en casos de débil sociabilidad real, Internet puede tener efectos compensatorios). Las comunidades virtuales tienen otro tipo de lógica y de relaciones. Son comunidades de personas basadas en unos mismos intereses, afinidades y valores. Internet permite saltar las limitaciones físicas del espacio (el barrio, el entorno laboral...) para buscar personas afines con las que establecer relación. Son tanto más exitosas cuanto más están ligadas a tareas o intereses comunes (más allá de los jóvenes, es minoritario su uso para juntarse y contar tonterías... la gente no tiene tiempo para ello).6.- Los movimientos sociales en Internet. Actualmente hay una crisis de las organizaciones tradicionales (partidos, asociaciones políticas...) en favor de los movimientos sociales en torno a valores y proyectos (medio ambiente, derechos humanos...). La mayor parte de estos movimientos sociales utilizan Internet como una forma privilegiada de acción y organización en red (cualquier persona puede lanzar un manifiesto en Internet y ver de aglutinar personas en torno a un proyecto). En ellos el poder funciona en redes locales que permiten organizar por ejemplo protestas globales.7.- Relación directa de Internet con la actividad política. Internet podría ser un instrumento de participación ciudadana extraordinario, un ágora política de información de la case política y los gobiernos a los ciudadanos, y de relación interactiva. Pero gobiernos y políticos solamente lo usan como tablón de anuncios (y como mucho para recibir opiniones sin más). La sociedad modela Internet y no al contrario. Allí donde hay movilización social, Internet actúa como instrumento de cambio social; allí donde hay burocratización política y política estrictamente mediática de presnetación ciudadana, Internet es simplemente un tablón de anuncios.,8.- La privacidad en Internet. Los gobiernos no pueden controlar Internet, pero en Internet no hay privacidad, todo puede ser rastreado (hay programas como Carnivore, USA)9.- Internet y los medios de comunicación. Internet y TV seguirán siendo dos sistemas distintos (aunque podrán estar en un mismo mueble en el salón). No parece interesante transmitir TV por Internet por el gran ancho de banda que consumirían todos los canales, pero Internet si puede ser el sistema operativo con el que interactuemos para seleccionar la información que queramos ver...- Aunque Internet está cortocircuitando los grandes medios de comunicación (periódicos digitales, radios...), parece que serán compatibles varios formatos: periódico en papel, on.line, por radio, por TV... según los distintos momentos de utilización.- Cuando todo está en Internet el principal problema es la credibilidad. Y es allí donde los grandes medios de comunicación deben defender su espacio.10.- Internet constituye la infraestructura tecnológica y el medio organizativo que permite el desarrollo de una serie de formas de relación social que no tienen su origen en Internet, que son fruto de una serie de cambios históricos... ero que no podrían realizarse sin Internet.Publicado por manuel en 7:52 Enviar por correo electrónicoEscribe un blogCompartir con TwitterCompartir con FacebookCompartir en Pinterest

a

APP PARA ABOGADOS

r

Gracias por su pregunta. Ya hemos recomendado varias aplicaciones, pero actualizaremos nuestra lista para el año 2016, con las mejores aplicaciones en el mercado: 1. EVLAB app. Sin duda, la mejor herramienta para firmas legales, pues es multiusos, sirve para certificar fotografías con ubicación del GPS, fecha y hora de la toma; además, da certificaciones electrónicas de correspondencia, de todos los correos, tanto enviados como recibidos, dando fe técnica y legal, de que el mensaje fue enviado, recibido y abierto. Igualmente, el app permite la descarga de los documentos certificados como prueba legalmente válida en cualquier proceso judicial, acorde con la Ley 527 de 1999. Así, el abogado solo imprime la certificación y adjunta la información digital al juez. Tiene versiones para Android y IOS y la app es gratis (compras integradas). Más información en www.evlab.co. 2. Legismovil app. Si quiere estar al día en jurisprudencia, legislación, resumen y análisis de los acontecimientos jurídicos de Colombia y el mundo, no puede faltarle esta aplicación, está al día en todo. Además, expertos juristas hacen resúmenes de los temas y puede elegir sus preferencias. Versiones para Android y IOS, la app es gratis, información en www.legismovil.com. 3. Tape Call app. Esta aplicación graba las llamadas que le hacen o las que usted realiza desde su celular, es muy útil, por ejemplo, cuando se factura por horas o se quiere ser preciso en las consultas que se le dan a los clientes (recuerde advertir a las personas con quien se habla que está grabando, así podrá usar como prueba estos documentos digitales). Si quiere ser más preciso con la grabación, y esta será usada como prueba, puede certificar el archivo de la grabación con EVLAB. Versiones para IOS, la app es gratis (compras integradas). Para mayor información, www.tapecall.com. 4. ACR APP. Hace lo mismo que el anterior, graba llamadas, pero sirve para Android. Versiones para Android, la app es gratis (compras integradas). Mayor información: www.nllapps.com 5. Dragon Dictation. Esta app transcribe todo lo que usted dice, le puede dictar como a la secretaria y deja todo escrito, es muy fiable y aprende mucho. Versiones para Android y IOS, la app es gratis (compras integradas). Información: www.dragondictation.com. 6. Trial Pad. Por medio de esta app, organiza documentos, casos, puede subir videos de las audiencias, se puede importar de ITunes, DROP   box, correos, fotos, etc. Versiones para Android y IOS, (89,99 dólares). Más información en www.Trialpad.com. En la próxima entrega, les recomendaremos más aplicaciones útiles para los profesionales del Derecho. * Sección patrocinada. Las opiniones aquí publicadas son responsabilidad exclusiva de Adalid Corp. MERCANTIL¿Sucursales pueden celebrar reuniones de junta de socios o asamblea general?18 de Mayo del 2018Lo último sobre descuentos al salario mínimo para el pago de créditos de libranza15 de Mayo del 2018Sociedades de mercadeo multinivel no pueden negociar con monedas virtuales ni títulos valores11 de Mayo del 2018Empresas de mercadeo multinivel o en red no pueden celebrar contratos de distribución10 de Mayo del 2018La expresión ‘no se aceptan devoluciones de dinero’ es abusiva e ineficaz10 de Mayo del 2018Estos serían los criterios de clasificación de las micro, pequeñas y medianas empresas09 de Mayo del 2018Reciba nuestroboletín de noticiasLOGIN - REGISTER OPTIONSRegistrarse IngresarSÍGANOS     

a

COMERCIO ELECTRONICO-E-GOBIERNO

r

Qué es el gobierno electrónico y para qué sirve?Tecnología6 Feb 2012 - 4:45 PMArnaud Laurans, director general de la unidad de Gobierno de Gemalto para LatinoaméricaHoy en día, vivimos en un mundo digitalizado y de alta movilidad sin frontera alguna. Internet ha transformado nuestro antiguo estado de hechos en una realidad diaria.La estructura común que apuntalaba a las sociedades, ha sido reemplazada por una multiplicidad de experiencias –los antiguos cimientos basados en “una entidad, una profesión y un territorio” han dado paso a un nuevo concepto: “redes económicas y sociales”.El gobierno electrónico es más que un término utilizado por expertos en la materia. Es el resultado de un crecimiento exponencial de Internet y las tecnologías de la información durante los últimos 50 años o más. Visto de esta forma, se puede considerar al gobierno electrónico como un intento por modernizar las relaciones (y servicios) entre los individuos y las autoridades, a través de nuevas reglas y herramientas de gestión modernas.Muchos gobiernos en el mundo entienden este cambio y han mostrado gran adaptabilidad en adoptar un verdadero enfoque centrado en el ciudadano, tan rápido y efectivo como las organizaciones o empresas privadas orientadas hacia el consumidor.¿Cuáles son sus beneficios hacia la ciudadanía y la propia Administración?Muchos son los beneficios que una estructura de gobierno electrónico provee a la ciudadanía y a las autoridades, sobre todo en sectores muy sensibles para ambos actores:• Sector fiscal: Con base en nuevas tecnologías de información, el gobierno pone al alcance de sus ciudadanos herramientas en línea que permiten una mejor identificación de sus obligaciones, facilitando a su vez un mejor control del padrón de contribuyentes del Gobierno.• Sector salud: Expedientes médicos electrónicos, telemedicina, seguimiento electrónico a pacientes con enfermedades crónicas, entre otros, son beneficios con impacto directo en la salud de los ciudadanos, al mismo tiempo que reducen costos para los gobiernos.• Sector social: Identificación y mejora en la gestión de apoyos a los beneficiarios de programas gubernamentales.• Mejora administrativa: Modernización de los registros civiles, rapidez en servicios de identificación ciudadana (expedición de visas, pasaportes), mejora en servicios provistos por autoridades locales.¿Cuál es la situación actual del gobierno electrónico en Colombia?En Colombia el Gobierno digital está en sus inicios. Generalmente, la administración fiscal es la más avanzada, permitiendo la consulta y/o declaraciones.Colombia está en el nivel de eGov 1.0, que es el primer nivel, es decir que la interacción entre el gobierno y el ciudadano es consultativa. Un ciudadano puede consultar un archivo en línea, pero no lo puede modificar. En este caso, no se requiere una autenticación fuerte del usuario. El nivel siguiente, el eGov 2.0 es realmente bidireccional en donde la autenticación del usuario es clave.Un pre-requisito para que el gobierno electrónico sea eficiente es el reconocimiento legal del la firma electrónica. En Colombia, la firma digital es reconocida (existen leyes que regulan su uso).Sin duda, este es un primer paso en la ruta hacia una implementación de un gobierno electrónico y muchos son las lecciones que otros países nos pueden ofrecer.Como por ejemplo:- Emiratos Árabes Unidos: El objetivo principal en su implementación de un esquema de gobierno electrónico fue el de “avanzar hacia una gran cultura de sector público”, valiéndose de tecnología y centrando al ciudadano en el corazón de su implementación (EIDA – Emirates Identity Authority).- Gobierno sueco: Bajo un sencillo lema, “Login and declare” (“Conéctate y declara”), este gobierno permite el pago de impuestos vìa internet, teléfono o SMS (Belgica y Francia son ejemplos similares)- Eslovenia, Japón: Introdujeron programas de e-Salud con altos retornos de inversión y una excelente ganancia política.Para facilitar la evolución hacia programas cada vez más novedosos, la identidad del ciudadano deberá fungir como el corazón del gobierno electrónico. Esto se logra a través de programas de identificación electrónica, pues permiten al ciudadano el utilizar su cédula de identidad como llave de acceso a cualquier programa de gobierno.Cuando el ciudadano es puesto en el corazón de todos los proyectos de modernización de servicios públicos, el desafío para el Gobierno es inmejorable, pues la tarea es más cultural que técnica. Esto simplemente define una concepción donde las autoridades de un Gobierno actúan como un “proveedor de servicios”, administrando la información pública –o incluso privada- con el objetivo de mejorar el bienestar individual y colectivo. Bajo este supuesto, el reto es lograr un nivel de eficiencia y calidad en el servicio proporcional a los nuevos requerimientos del ciudadano, en términos de funcionamiento social, económico y de servicios públicos.0 ComentariosÚltimas NoticiasTecnología22 May 2018El perdón del fundador de Facebook no convence en la EurocámaraLa primera lata en el mundo que se enfría solaTecnología22 May 2018Físico finlandés, ganador del denominado "Nobel de tecnología"Tecnología22 May 2018Google podría enfrentar demanda de US$4.300 millones en Reino UnidoTecnología21 May 2018Así serían las nuevas videollamadas grupales de WhatsAppTecnología21 May 2018 

a

E SALUD-E-LEARNING

r

UsuarioClaveRecordar claveRegistroInicioConocer el CentroCursosÁrea de alumnosÁrea de profesores USÁrea de empresasBlog CFPTablón de anuncios¿Qué ofrecemos?FormaciónFormación a demandae-LearningPrácticas en empresasSolicitud de informaciónPreguntas FrecuentesNoticiasNuestra experiencia con empresas/institucionesNuestra experiencia con instituciones internacionalesInicio > Área de empresas > Formación > e-Learning > e-Learning. Definición y Característicase-Learning. Definición y Característicase-LearningDefinición y CaracterísticasPlataforma e-LearningFAQEnlacesTendenciasGuíaEn la actualidad el Centro de Formación Permanente (CFP) ofrece una gran variedad de cursos en modalidad e-learning, tanto de larga duración, Másters y Expertos, como de Formación Continua y Especializada con un número de horas más reducido. Dicha oferta crece día a día, así como el número de profesores y alumnos dados de alta en la plataforma e-Learning, configurando una amplia red social de aprendizaje.DefiniciónAunque e-Learning no es un término castellano, su uso se ha generalizado de tal forma que es el más extendido a nivel mundial. Existen otros términos, que significan prácticamente lo mismo y a veces se usan como sinónimos, tales como: teleformación, formación on-line, enseñanza virtual, etc.Podemos entender e-Learning como:Procesos de enseñanza-aprendizaje que se llevan a cabo a través de Internet, caracterizados por una separación física entre profesorado y estudiantes, pero con el predominio de una comunicación tanto síncrona como asíncrona, a través de la cual se lleva a cabo una interacción didáctica continuada. Además, el alumno pasa a ser el centro de la formación, al tener que autogestionar su aprendizaje, con ayuda de tutores y compañeros.CaracterísticasEsta modalidad formativa a distancia a través de Internet o semipresencial (una parte de los procesos formativos se realizan de manera presencial), ha contribuido a que la formación llegue a un mayor número de personas. Entre las características más destacadas del e-Learning están:Desaparecen las barreras espacio-temporales. Los estudiantes pueden realizar un curso en su casa o lugar de trabajo, estando accesibles los contenidos cualquier día a cualquier hora. Pudiendo de esta forma optimizar al máximo el tiempo dedicado a la formación.Formación flexible. La diversidad de métodos y recursos empleados, facilita el que nos podamos adaptar a las características y necesidades de los estudiantes.El alumno es el centro de los procesos de enseñanza-aprendizaje y participa de manera activa en la construcción de sus conocimientos, teniendo capacidad para decidir el itinerario formativo más acorde con sus intereses.El profesor, pasa de ser un mero transmisor de contenidos a un tutor que orienta, guía, ayuda y facilita los procesos formativos.Contenidos actualizados. Las novedades y recursos relacionados con el tema de estudio se pueden introducir de manera rápida en los contenidos, de forma que las enseñanzas estén totalmente actualizadas.Comunicación constante entre los participantes, gracias a las herramientas que incorporan las plataformas e-Learning (foros, chat, correo-e, etc.).Con las posibilidades que nos brinda la plataforma de e-Learning que la Universidad pone al servicio de toda su comunidad, la relación que se establece entre alumnos y entre profesor-alumno es fluida, generándose un verdadero ambiente de enseñanza-aprendizaje, compartiendo dudas, ideas, temas de interés, etc. y contribuyendo a paliar algunos de los inconvenientes de la enseñanza a distancia tradicional, como era el sentimiento de aislamiento y soledad que el alumno experimentaba a lo largo del proceso.De esta forma, el CFP pretende ser un servicio universitario de excelencia, basándose en un compromiso de mejora continua, ofreciendo una formación de calidad, moderna, a distancia, actualizada, flexible y personalizada.  

a

PRODUCTORES DE AUDIO Y VIDEO

r

Reproductor audio y vídeoLos reproductores de audio y vídeo se encargan de organizar y reproducir este tipo de archivos. En la actualidad la mayoría de los reproductores tratan estos dos tipos de contenido de forma simultánea. Podemos encontrar muchos tipos de reproductores aunque el funcionamiento de la mayoría es similar. Por su gran aceptación vamos a explicar cómo utilizar Winamp.Winamp tiene una versión gratuita que podemos conseguir pulsando FREE DOWNLOAD en la página http://www.winamp.com/Una vez que conseguimos el ejecutable hacemos clic sobre él para comenzar la instalación.Lo primero que aparece es una ventana en la que podemos seleccionar el idioma.Tras elegir el idioma aparece una ventana de bienvenida al asistente de instalación de Winamp. Basta seguir las instrucciones para completarla.« Anterior | Siguiente »Este artículo está licenciado bajo Creative Commons Attribution Non-commercial Share Alike 3.0 LicenseMinisterio de Educación | Instituto de Tecnologías

a

EXTENCION DE ARCHIVO

r

Qué es la extensión de un archivo y por qué activarlaCompartePinManda por emailFoto © MicrosoftQuiero aprenderTecnologíaFinanzas y negociosEducación y religiónPor Angel GutierrezActualizado 29 de julio de 2017¿Qué es la extensión de un archivo?La extensión de un archivo es la parte de su nombre que indica de qué tipo es. El nombre completo de cualquier archivo consta siempre de dos partes separadas por un punto (por ejemplo "Windows.exe" o "recetas.doc"). Lo que está a la izquierda del punto es el nombre en sí del archivo. Lo que está a la derecha es su extensión.Lo normal es que las formen entre dos y cuatro letras.A menudo son una abreviatura o unas siglas (EXE de Executable, PDF de Portable Document Format, TXT de texto, etc.). Gracias a ellas Windows puede saber qué hacer con el archivo. En esencia si debe ejecutarlo o si tiene que abrirlo mediante otro programa.Algunas extensiones habitualesEstas son varias de distintos tipos de archivos:Programas. exe, com, bat, apk, vb, vbsDocumentos. doc o docx, txt, pdf, xls o xlsx, ppt o pptx, rtf, accdbArchivos comprimidos o similares. rar, zip, iso, 7z, gz, tarImágenes. jpg o jpeg, gif, bmp, png, psd, tif o tiffAudio. mp3, wma, wav, cda, ape, flac, raVídeo. avi, mpg o mpeg, flv, wmv, mp4, mov, vob, mkv, rmInternet. htm o html, xhtml, asp o aspx, css, js, jsp, php, rssHay muchas más aparte de estas. Tantas que a veces Windows no sabe qué hacer con un buen número de ellas. Ni él ni tu. Más de una vez te encontrarás con una extensión desconocida de un archivo que no sepas abrir.En esos casos es útil saber cómo encontrar programas gratis para abrir archivos de todo tipo.¿Por qué debes activar que se muestren?Windows mantiene ocultas las extensiones de forma predeterminada. Esconde las más comunes y sólo te muestra el nombre del archivo (la parte a la izquierda del punto). Es un riesgo de seguridad bastante importante.Muchos virus utilizan una doble extensión para engañar al sistema operativo y parecer inofensivos. Un ejemplo: si recibes el archivo "foto graciosa.jpg.exe" y las extensiones están ocultas, verás en tu PC sólo "foto graciosa" o "foto graciosa.jpg". Pensarás que es una simple imagen cuando en realidad se trata de un archivo ejecutable (exe) que infectará tu equipo al abrirlo.La forma de prevenir esas y otras amenazas es activar que se vean siempr las extensiones. Incluso las habituales. Haz esto:Entra en el menú Inicio y pincha arriba a la derecha en Documentos (Windows 7 y Vista) o Mis documentos (Windows XP).Luego:En Windows 7 y VistaPincha arriba a la izquierda en Organizar y elige dentro Opciones de carpeta y (de) búsqueda.En Windows XPHaz clic arriba en el menú Herramientas y selecciona Opciones de carpeta.Elige arriba en la solapa Ver. En la mitad de abajo hay una lista de opciones de "Configuración avanzada".Busca entre ellas la que se llama Ocultar las extensiones de archivo para tipos de archivo conocidos. DESACTIVA su casilla pinchando en ella. Debe quedar vacía, sin la marca de visto.Pulsa abajo el botón Aceptar.Así podrás desenmascarar un virus "disfrazado" con una doble extensión.Su nombre se mostrará al completo. Usando el mismo ejemplo de antes, ahora verías "foto graciosa.jpg.exe".IMPORTANTE:Da siempre por supuesto que un archivo con doble extensión es potencialmente peligroso. Escanéalo con un buen antivirus ANTES de abrirlo. Si no tienes ninguno hay buenas opciones gratis. Como Panda Free o Avira. Búscalos en Google y descárgalos de sus sitios web oficiales.Cambiar la extensiónEs útil cuando el archivo tiene una que no le corresponde. O para resolver algunos problemas de Windows. Sigue este enlace donde hay instrucciones detalladas que sirven incluso para archivos protegidos.

a

BANCO ONLINE

r

Search for:Bolsa de valores Bancos Economía doméstica Criptomonedas Ganar dinero Glosario Tax FreeBolsa de valores Bancos Economía doméstica Criptomonedas Ganar dinero Glosario Tax FreeEconomía Simple | Glosario | Finanzas | Bancos | Banca electrónicaDefinición de Banca electrónicaLa banca electrónica, o también llamada banca virtual o online, es un servicio prestado por las entidades financieras que tiene como misión permitir a sus clientes realizar operaciones y transacciones con sus productos de forma autónoma, independiente, segura y rápida a través de Internet.Entre las transacciones más típicas que se pueden realizar a través de este servicio de banca electrónica están las transferencias, el envío y recepción de ficheros o cuadernos de gestión y la consulta de los movimientos de las cuentas. Desde el punto de vista del consumidor, la banca virtual ofrece una serie de ventajas pero también de inconvenientes.Entre las ventajas destaca la comodidad de poder operar des de cualquier sitio, el ahorro de tiempo que ello supone y de costes para el banco que pueden o deben repercutir en el cliente. Entre las principales preocupaciones de los clientes se encuentra el tema de la seguridad y la escasa información sobre las posibilidades que este servicio ofrece.Para la utilización de la banca electrónica lo más adecuado es solicitar información al gestor del banco especializado en estos servicios y negociar con la entidad las condiciones que se van a aplicar en el uso de estos canales a distancia.Artículos relacionadosBancos y finanzasLa bancaTipos de bancosBanca UniversalQué hacer en caso de no poder pagar la hipoteca: dudas frecuentes banca electronica, Qué es la banca electrónica, Servicios banca electrónicaPost navigation←EURIBORINTERÉS DE DEMORA→Glosario BancosColocaciónCrédito hipotecarioCuenta corrienteCuenta de ahorroDepósito bancarioDepósitos a plazo fijoDomiciliación bancariaEmbargoEncaje bancarioFactoringHipotecaIBANInterés bancarioSwiftTarjeta de créditoTarjeta de débitoVer glosario completo [+]Search for:EconomíaPlanes de pensionesSeguros de vidaMorosidadFinanzas personalesHipotecasEmpresa y AutónomosFinanciación de empresasSer autónomoCooperativas de facturaciónFacturar sin ser autónomoProgramas de facturaciónDocumentos financierosCrear un negocio onlineInfografíasLey de EmprendedoresCesta de la compraInfografíasEconomía simpleContactoAnúnciate aquíAviso legalPolítica de privacidadPolítica de cookies© 2016 Economía Simple

a

CONVERGENCIA DIGITAL

r

¿Qué es Convergencia digital?Inicio : Terminología : Tecnología : Convergencia digitalTecnologíaProceso que lleva a la unificación y homogeneidad de servicios y tecnología entre los diferentes dispositivos (PC, Móvil, tabletas, TV…), haciendo que dichos servicios no sean definidos por el terminal desde el que se accede, sino que estén integrados y ofrezcan, prácticamente, la misma experiencia de usuario.

a

REDES PEER-TO PEER

r

Peer-to-peerNo debe confundirse con Point-to-Point Protocol o Red punto a punto. Ejemplo de una red basada en peer-to-peer.Una red peer-to-peer, red de pares, red entre iguales o red entre pares (P2P, por sus siglas en inglés) es una red de ordenadores en la que todos o algunos aspectos funcionan sin clientes ni servidores fijos, sino una serie de nodos que se comportan como iguales entre sí. Es decir, actúan simultáneamente como clientes y servidores respecto a los demás nodos de la red. Las redes P2P permiten el intercambio directo de información, en cualquier formato, entre los ordenadores interconectados.Normalmente este tipo de redes se implementan como redes superpuestas construidas en la capa de aplicación de redes públicas como Internet.El hecho de que sirvan para compartir e intercambiar información de forma directa entre dos o más usuarios ha propiciado que parte de los usuarios lo utilicen para intercambiar archivos cuyo contenido está sujeto a las leyes de copyright, lo que ha generado una gran polémica entre defensores y detractores de estos sistemas.Las redes peer-to-peer aprovechan, administran y optimizan el uso del ancho de banda de los demás usuarios de la red por medio de la conectividad entre los mismos, y obtienen así más rendimiento en las conexiones y transferencias que con algunos métodos centralizados convencionales, donde una cantidad relativamente pequeña de servidores provee el total del ancho de banda y recursos compartidos para un servicio o aplicación.Dichas redes son útiles para diversos propósitos. A menudo se usan para compartir ficheros (archivos) de cualquier tipo (por ejemplo, audio, vídeo o software). Este tipo de red también suele usarse en telefonía VoIP para hacer más eficiente la transmisión de datos en tiempo real.La eficacia de los nodos en el enlace y transmisión de datos puede variar según su configuración local (cortafuegos, NAT, ruteadores, etc.), velocidad de proceso, disponibilidad de ancho de banda de su conexión a la red y capacidad de almacenamiento en disco.En mayo de 1999, con millones de personas más en Internet, Shawn Fanning introdujo la aplicación para compartir música y archivos llamada Napster.1​ Napster fue el comienzo de las redes peer-to-peer, como las conocemos hoy en día, donde "los usuarios que participan pueden establecer una red virtual, totalmente independiente de la red física, sin tener que obedecer a cualquier autoridad administrativa o restricciones".1​Índice  [ocultar] 1Aplicaciones de las redes P2P2Características3Problemas de funcionamiento4Clasificación4.1Según grado de centralización4.1.1Redes P2P centralizadas4.1.2Redes P2P híbridas, semicentralizadas o mixtas4.1.3Redes P2P «puras» o totalmente descentralizadas4.2Según su estructuración4.3Según la generación a la que pertenezcan4.4Según el grado de protección de nuestra identidad4.5Enrutamiento y descubrimiento de recursos4.6Grids5Dominio público, Copyleft y Creative Commons6Controversia legal6.1Declaración de la ONU6.2Situación legal en España7Redes, protocolos y aplicaciones7.1Redes y protocolos7.2Aplicaciones multirred8Otras Aplicaciones9Véase también10Referencias11Enlaces externosAplicaciones de las redes P2P[editar]Actualmente, en Internet el ancho de banda o las capacidades de almacenamiento y cómputo son recursos caros. En aquellas aplicaciones y servicios que requieran una enorme cantidad de recursos pueden usarse las redes P2P.Algunos ejemplos de aplicación de las redes P2P son los siguientes:Intercambio y búsqueda de ficheros. Quizás sea la aplicación más extendida de este tipo de redes. Algunos ejemplos son BitTorrent o emule (de la red eDonkey2000) .Sistemas de ficheros distribuidos, como CFS o Freenet.Sistemas para proporcionar cierto grado de anonimato, como i2p, Tarzan P2P o MorphMix. Este tipo de tecnologías forman parte de la llamada red oscura y constituyen el llamado peer-to-peer anónimo.Sistemas de telefonía por Internet, como Skype.A partir del año 2006, cada vez más compañías europeas y norteamericanas, como Warner Bros o la BBC, empezaron a ver el P2P como una alternativa a la distribución convencional de películas y programas de televisión, y ofrecen parte de sus contenidos a través de tecnologías como la de BitTorrent.2​Cálculos científicos que procesen enormes bases de datos, como los procedimientos bioinformáticos.Monedas virtuales para transacciones entre partes. BitcoinGrabadores de sistemas de CCTV que transmiten las imágenes a usuarios conectados desde celulares y computadores en ISP con puertos bloqueados. DVR Representación gráfica de un enjambre que muestra la distribución de los peers con sus respectivas trasmisiones y recepciones de datos dentro de un torrent en Vuze.Las redes P2P pueden usarse también para hacer funcionar grandes sistemas de software diseñados para realizar pruebas que identifiquen la presencia de posibles fármacos. El primer sistema diseñado con tal propósito se desarrolló en el 2001, en el Centro Computacional para el Descubrimiento de Medicamentos (Centre for Computational Drug Discovery) en la prestigiosa Universidad de Oxford y con la cooperación de la Fundación Nacional para la Investigación del Cáncer (National Foundation for Cancer Research) de los Estados Unidos.Actualmente existen varios sistemas software similares que se desarrollan bajo el auspicio de proyectos como el proyecto de Dispositivos Unidos en la Investigación del Cáncer (United Devices Cancer Research Project). En una escala más pequeña, existen sistemas de administración autónoma para los biólogos computacionales, como el Chinook, que se unen para ejecutar y hacer comparaciones de datos bioinformáticos con los más de 25 diferentes servicios de análisis que ofrece. Uno de sus propósitos consiste en facilitar el intercambio de técnicas de análisis dentro de una comunidad local.Las instituciones académicas también han comenzado la experimentación con compartición de archivos, como es el caso de LionShare.Características[editar]Seis características deseables de las redes P2P:Escalabilidad. Las redes P2P tienen un alcance mundial con cientos de millones de usuarios potenciales. En general, lo deseable es que cuantos más nodos estén conectados a una red P2P, mejor será su funcionamiento. Así, cuando los nodos llegan y comparten sus propios recursos, los recursos totales del sistema aumentan. Esto es diferente en una arquitectura del modo servidor-cliente con un sistema fijo de servidores, en los cuales la adición de clientes podría significar una transferencia de datos más lenta para todos los usuarios. Algunos autores advierten que, si proliferan mucho este tipo de redes, cliente-servidor, podrían llegar a su fin, ya que a cada una de estas redes se conectarán muy pocos usuarios.Robustez. La naturaleza distribuida de las redes peer-to-peer también incrementa la robustez en caso de haber fallos en la réplica excesiva de los datos hacia múltiples destinos, y —-en sistemas P2P puros—- permitiendo a los peers encontrar la información sin hacer peticiones a ningún servidor centralizado de indexado. En el último caso, no hay ningún punto singular de falla en el sistema.Descentralización. Estas redes por definición son descentralizadas y todos los nodos son iguales. No existen nodos con funciones especiales, y por tanto ningún nodo es imprescindible para el funcionamiento de la red. En realidad, algunas redes comúnmente llamadas P2P no cumplen esta característica, como Napster, eDonkey o BitTorrent.Distribución de costes entre los usuarios. Se comparten o donan recursos a cambio de recursos. Según la aplicación de la red, los recursos pueden ser archivos, ancho de banda, ciclos de proceso o almacenamiento de disco.Anonimato. Es deseable que en estas redes quede anónimo el autor de un contenido, el editor, el lector, el servidor que lo alberga y la petición para encontrarlo, siempre que así lo necesiten los usuarios. Muchas veces el derecho al anonimato y los derechos de autor son incompatibles entre sí, y la industria propone mecanismos como el DRM para limitar ambos.Seguridad. Es una de las características deseables de las redes P2P menos implementada. Los objetivos de un P2P seguro serían identificar y evitar los nodos maliciosos, evitar el contenido infectado, evitar el espionaje de las comunicaciones entre nodos, creación de grupos seguros de nodos dentro de la red, protección de los recursos de la red... La mayor parte de los nodos aún están bajo investigación, pero los mecanismos más prometedores son: cifrado multiclave, cajas de arena, gestión de derechos de autor (la industria define qué puede hacer el usuario; por ejemplo, la segunda vez que se oye la canción se apaga), reputación (permitir acceso sólo a los conocidos), comunicaciones seguras, comentarios sobre los ficheros, etc.Problemas de funcionamiento[editar]La mayor parte de los nodos de Internet no disponen de una dirección IP fija o siquiera accesible para otros nodos de Internet. Este es el caso, por ejemplo, de los nodos que se conectan a través de redes locales como Wifi o Ethernet, de aquellos que tienen algún tipo de cortafuegos y NAT o de los que se conectan a través de la mayor parte de los ISPs del mundo. Para el correcto funcionamiento de una red P2P, hay que resolver dos problemas fundamentales: cómo se encuentra un nodo que ya esté conectado a la red P2P y cómo se conectan los nodos sin dirección IP pública entre ellos.Para resolver el primer problema, la solución habitual es realizar una conexión a un servidor (o servidores) inicial con dirección bien conocida (normalmente IP fija) que el programa P2P tiene almacenada. Este servidor inicial se encarga de mantener una lista con las direcciones de otros nodos que están actualmente conectados a la red. Tras esto, los clientes ya tienen información suficiente para entrar en la red y pueden intercambiar información con otros nodos, ya sin intervención de los servidores iniciales.Para resolver el problema de conexión cuando los nodos no tienen dirección pública, estos se conectan a través de otro nodo que funciona como proxy de la conexión. Los dos nodos se conectan al proxy y éste envía la información que llega de uno al otro. Cualquier nodo con una dirección IP pública puede ser escogido como proxy de una conexión entre dos nodos. Por ejemplo, en la red Skype a través de nuestro ordenador pueden pasar conversaciones de otras personas. En estos casos, es imprescindible la implementación de algún mecanismo de seguridad para evitar que los proxies pueden llegar a entender la comunicación entre los dos nodos.Clasificación[editar]Según grado de centralización[editar]Una posible clasificación de las redes P2P pudiera ser acorde a su grado de centralización: Las tres topologías de red según los famosos grafos de Paul Baranque aplican también al diseño P2P.Redes P2P centralizadas[editar]Este tipo de red P2P se basa en una arquitectura monolítica en la que todas las transacciones se hacen a través de un único servidor que sirve de punto de enlace entre dos nodos y que, a la vez, almacena y distribuye los nodos donde se almacenan los contenidos.Poseen una administración muy dinámica y una disposición más permanente de contenido. Sin embargo, está muy limitada en la privacidad de los usuarios y en la falta de escalabilidad de un sólo servidor, además de ofrecer problemas en puntos únicos de fallo, situaciones legales y enormes costos en el mantenimiento, así como el consumo de ancho de banda.Una red de este tipo reúne las siguientes características:Se rige bajo un único servidor, que sirve como punto de enlace entre nodos y como servidor de acceso al contenido, el cual distribuye a petición de los nodos.Todas las comunicaciones (como las peticiones y encaminamientos entre nodos) dependen exclusivamente de la existencia del servidor.Algunos ejemplos de este tipo de redes son Napster y Audiogalaxy.Redes P2P híbridas, semicentralizadas o mixtas[editar]En este tipo de red, se puede observar la interacción entre un servidor central que sirve como hub y administra los recursos de banda ancha, enrutamientos y comunicación entre nodos pero sin saber la identidad de cada nodo y sin almacenar información alguna, por lo que el servidor no comparte archivos de ningún tipo a ningún nodo. Tiene la peculiaridad de funcionar (en algunos casos como en Torrent) de ambas maneras, es decir, puede incorporar más de un servidor que gestione los recursos compartidos, pero también, en caso de que el servidor o los servidores que gestionan todo caigan, el grupo de nodos puede seguir en contacto a través de una conexión directa entre ellos mismos, con lo que es posible seguir compartiendo y descargando más información en ausencia de los servidores. Este tipo de P2P presenta las siguientes características:Tiene un servidor central que guarda información en espera y responde a peticiones para esa información.Los nodos son responsables de hospedar la información (pues el servidor central no almacena la información) que permite al servidor central reconocer los recursos que se desean compartir, y para poder descargar esos recursos compartidos a los usuarios que lo solicitan.Las terminales de enrutamiento son direcciones usadas por el servidor, que son administradas por un sistema de índices para obtener una dirección absoluta.Algunos ejemplos de una red P2P híbrida son BitTorrent, eDonkey y Direct Connect.Redes P2P «puras» o totalmente descentralizadas[editar]Las redes P2P de este tipo son las más comunes, siendo las más versátiles al no requerir de un gestionamiento central de ningún tipo, lo que permite una reducción de la necesidad de usar un servidor central, por lo que se opta por los mismos usuarios como nodos de esas conexiones y también como almacenadores de esa información. En otras palabras, todas las comunicaciones son directamente de usuario a usuario con ayuda de un nodo (que es otro usuario) quien permite enlazar esas comunicaciones. Las redes de este tipo tienen las siguientes características:Los nodos actúan como cliente y como servidor.No existe un servidor central que maneje las conexiones de red.No hay un enrutador central que sirva como nodo y administre direcciones.Algunos ejemplos de una red P2P "pura" son: Kademlia, Ares Galaxy, Gnutella, Freenet, Gnutella2 y Maidsafe.Según su estructuración[editar]La red de sobrecapa del P2P consiste en todos los usuarios que participan como nodos de red. Hay enlaces entre dos nodos cualesquiera que se conozcan: es decir, si un usuario participante conoce la localización de otro usuario en la red del P2P, entonces hay un borde dirigido del nodo anterior al último nodo en la red de sobrecapa. Basándonos en cómo los nodos en la red de sobrecapa se enlazan el uno al otro, podemos clasificar las redes del P2P como no estructuradas o estructuradas.Se forma una red P2P no estructurada cuando los enlaces de la sobrecapa se establecen arbitrariamente. Tales redes pueden construirse muy fácilmente cuando un usuario que desea unirse a la red puede copiar enlaces existentes de otro nodo y después formar sus propios enlaces en un plazo determinado. Ejemplo de este tipo de red es Gnutella.En una red P2P no estructurada, si un usuario desea encontrar información específica en la red, la petición tiene que recorrer toda la red para encontrar tantos usuarios como sea posible, para conseguir a alguien que comparta los datos. La desventaja principal con estas redes es que las peticiones no siempre podrán resolverse. Es muy probable que un contenido popular esté disponible para varios usuarios, y es muy probable que cualquier usuario que lo busque lo encuentre; sin embargo, si un usuario está buscando datos no muy populares que comparten sólo unos cuantos usuarios, será altamente probable que la búsqueda no dé los resultados esperados. Dado que no hay correlación entre un usuario y el contenido compartido por él, entonces no hay garantía de que el usuario encuentre al que tiene la información deseada.El flooding también incrementa el tráfico en la red y, por lo tanto, estas redes suelen tener una eficacia muy baja en los resultados de búsqueda. La mayor parte de las redes populares P2P (Napster, Gnutella y KaZaA) son redes P2P sin estructura.Las redes P2P estructuradas superan las limitaciones de las redes no estructuradas, mantienen una tabla de hash distribuida (DHT) y permiten que cada usuario sea responsable de una parte específica del contenido en la red. Estas redes utilizan funciones de hash distribuido y asignan valores a cada contenido y a cada usuario en la red. Después siguen un protocolo global en la determinación de qué usuario es responsable de qué contenido. De esta manera, siempre que un usuario desee buscar ciertos datos, utilizará el protocolo global para determinar al usuario o usuarios que lo tiene(n) y después dirigirá la búsqueda hacia estos. Algunas redes P2P estructuradas son:ChordPastry P2P NetworkTapestry P2P NetworkContent Addressable NetworkTulip OverlayCAN (red p2p)Según la generación a la que pertenezcan[editar]También se podría clasificar las redes P2P según su generación:Primera generación de P2P: son literalmente las primeras redes P2P, que eran centralizadas.Segunda generación de P2P: en esta generación se implementó por primera vez la característica de la descentralización, y esta característica es la más frecuente en los actuales P2P.Tercera generación de P2P: los más recientes, que implementan una comunicación no directa, cifrada y anónima.Según el grado de protección de nuestra identidad[editar]Podemos clasificar las redes P2P según como protege la identidad:Sin características de anonimatoPseudónimoRed P2P PrivadaFriend-to-friend (de amigo-a-amigo)Enrutamiento y descubrimiento de recursos[editar]Las redes peer to peer (igual a igual), ponen en práctica la red virtual superpuesta en la parte superior de la topología de la red física, donde los nodos de la capa forman un subconjunto de los nodos de la red física. Los datos se intercambian directamente sobre la red TCP / IP subyacente, pero en la capa de aplicación pares son capaces de comunicarse entre sí directamente, a través de los enlaces lógicos de superposición (cada uno de los cuales corresponde a un camino a través de la red física subyacente). Las superposiciones son utilizadas para la indexación y el descubrimiento de pares, y hacer que el sistema peer to peer sea independiente de la topología de red física. Basado en cómo los nodos están relacionados entre sí dentro de la red de superposición, y cómo se indexan y se encuentran recursos, podemos clasificar como redes no estructurada o estructurada (o como un híbrido entre los dos).Grids[editar]Artículo principal: GridRecientemente están apareciendo una serie de sistemas que intentan proveer la máxima integración de los peer para lograr compartir eficientemente determinados recursos. Si el sistema está especializado en compartir la capacidad de procesamiento se le llama grid computacional, si está especializado en compartir la capacidad de almacenamiento se le llama grid de datos.Dominio público, Copyleft y Creative Commons[editar]Las aplicaciones P2P resultan útiles para intercambiar y compartir todo tipo de obras, entre ellas destacan los siguientes ejemplos:Obras que pertenecen al dominio público, como libros, películas, fotografías, etc.Creaciones propias, como vídeos, fotografías y animaciones que no tengan licencia.Programas libres publicados con licencias GPL, BSD, MPL, etc.Todo tipo de documentos con diversas licencias como el Copyleft y obras publicadas con licencias Creative Commons.Controversia legal[editar]Declaración de la ONU[editar]En relación con el intercambio de archivos el informe de la ONU Reporte Especial sobre la promoción y la protección del derecho a la libertad de expresión y opinión, analiza la legislación de distintos gobiernos que castiga y considera muy grave que pueda llegar a negarse a los ciudadanos el acceso a Internet. El informe dice así:3​Si bien las propuestas en marcha bloquean y filtran a los usuarios de contenido específico en la red, los Estados también han adoptado medidas para cortar el acceso a Internet por completo. Cortar a los usuarios este acceso, independientemente de la justificación que se presente, ya sea por derechos de autor u otras causas similares, es una medida desproporcionada y por lo tanto una violación del artículo 19, apartado 3, del pacto internacional sobre los derechos civiles y políticos.3​Situación legal en España[editar]Existen desacuerdos sobre la neutralidad en el punto de vista de la versión actual de este artículo o sección.En la página de discusión puedes consultar el debate al respecto.Algunos abogados especializados4​5​6​ y algunas asociaciones de consumidores y usuarios7​ afirman que es legal descargar archivos audiovisuales dentro del marco de la legislación actual, aunque estén sujetos a derechos de autor, amparándose en el derecho de copia privada y siempre que no haya ánimo de lucro.8​ Parten del supuesto de que se está cumpliendo con el requisito establecido por la ley del uso privado de la obra audiovisual para no solicitar ninguna autorización por parte del titular de los derechos de autor para la reproducción (copia); se produce únicamente durante la ejecución (audición o reproducción visual) de la misma.En la actualidad el uso de las redes P2P está totalmente permitido en España, ya que su uso puede servir para compartir archivos personales, creaciones propias, obras bajo dominio público, distribuciones Linux o incluso software libre. No hay sanciones para quien utilice las redes de pares porque son una herramienta más para compartir cualquier tipo de archivos. Se han dado algunas acciones policiales contra personas acusadas de intercambio de pornografía infantil por parte de la policía, ya que el P2P permite que cualquiera pueda acceder a los archivos. Por consiguiente, el P2P ha servido también para combatir algunos crímenes.El 11 de julio de 2008 el gobierno español anunció que aprovecharía la presidencia española de la Unión Europea en el primer semestre del 2010 para frenar el uso de las redes P2P.9​Referente a las páginas web de enlaces a redes P2P, el 18 de septiembre de 2008 se notificó el auto de la Audiencia Provincial de Madrid, en el que se confirma el sobreseimiento libre en el caso Sharemula, con lo cual se declaró que enlazarse a las redes de pares no constituye una actividad criminal.10​El 20 de diciembre de 2008, los colectivos Compartir es bueno y Hacktivistas realizaron una descarga pública de contenidos con Copyright mediante P2P frente a la sede del PSOE, avisando con diez días de antelación al Ministro de Cultura, César Antonio Molina, y al Jefe de la Unidad de Delitos Telemáticos de la Guardia Civil. La descarga se realizó sin problemas, con la presencia de la policía y de los medios de comunicación.11​12​Redes, protocolos y aplicaciones[editar]Redes y protocolos[editar]Red o ProtocoloUsoProgramasANts P2PIntercambio de ficheros/Distribución de software/Distribución de multimediaANts P2PAresIntercambio de ficherosAres Galaxy, Warez P2P, KCeasy, jAres P2PBitTorrentIntercambio de ficheros/Distribución de software/Distribución de multimediaVer Anexo:Comparativa de clientes BitTorrent para una lista detallada.BitcoinDinero electrónicoBitcoin-Qt, Armory, MultiBit, Electrum,13​14​ BitcoinSpinner, así como varias aplicaciones web: Coinbase, Instawallet, MyWalletDirect ConnectIntercambio de ficheros, chatDC++, NeoModus Direct Connect, SababaDC, BCDC++, RevConnect, fulDC, LDC++, CzDC, McDC++, DCDM++, DDC++, iDC++, IceDC++, Zion++, 

a

BLOGS

r

BlogEste artículo tiene referencias, pero necesita más para complementar su verificabilidad.Puedes colaborar agregando referencias a fuentes fiables como se indica aquí. El material sin fuentes fiables podría ser cuestionado y eliminado.Este aviso fue puesto el 30 de marzo de 2018.Un blog1​ o bitácora2​ es un sitio web que incluye, a modo de diario personal de su autor o autores, contenidos de su interés, que suelen estar actualizados con frecuencia y a menudo son comentados por los lectores.1​Índice  [ocultar] 1Descripción2Historia2.11994-20002.22000-20062.3Presente3Herramientas para su creación y mantenimiento4Características diferenciales de un blog5Características técnicas5.1Comentarios5.2Enlaces5.3Enlaces inversos5.4Fotografías y vídeos5.5Redifusión5.6Integración6Características sociales7Enemigos del correcto funcionamiento de un blog8Tipos de blogs8.1Blog personal8.2Microblogging8.3Blogs corporativos y organizacionales8.4Blogs educativos8.5Por el género8.6Por el tipo de medios de comunicación8.7Por el dispositivo8.8Blog inversa9Red de blogs10Taxonomía11Hispanización de la palabra12Glosario13Comunidad y catalogación14Uso en comunidades15Popularidad16Clasificación según la influencia17Confusión con los medios de comunicación18Publicidad generada por el consumidor de blogs19Véase también20Referencias21Bibliografía básica sobre weblogs22Enlaces externosDescripción[editar]Sirve como publicación en línea de historias con una periodicidad muy alta, que son presentadas en orden cronológico inverso, es decir, lo más reciente que se ha publicado es lo primero que aparece en la pantalla. Antes era frecuente que los blogs mostraran una lista de enlaces a otros blogs u otras páginas para ampliar información, citar fuentes o hacer notar que se continúa con un tema que empezó otro blog.Actualmente un blog puede tener diversas finalidades3​ según el tipo, taxonomía o incluso su autoría, como por ejemplo para reforzar la marca personal del autor, generar información para comunidades temáticas concretas o incluso servir como medio para buscar oportunidades laborales.Historia[editar]Antes de que los blogs se hicieran populares, existían comunidades digitales como USENET, xrt listas de correo electrónico y BBS.En los años 90, los programas para crear foros de internet, por ejemplo WebEx, posibilitaron conversaciones con hilos. Los hilos son mensajes que están relacionados con un tema del foro.1994-2000[editar]El blog moderno es una evolución de los diarios en línea, donde la gente escribía sobre su vida personal, como si fuese un diario íntimo pero dándole difusión en la red. Las páginas abiertas Webring incluían a miembros de la comunidad de diarios en línea. Justin Hall, quien escribió desde 1994 su blog personal mientras era estudiante de la Universidad de Swarthmore, es reconocido generalmente como uno de los primeros blogueros.4​También había otras formas de diarios en línea. Un ejemplo era el diario del programador de juegos John Carmack, publicado mediante el protocolo Finger.Los sitios web, como los sitios corporativos y las páginas web personales, tenían y todavía tienen a menudo secciones sobre noticias o novedades, frecuentemente en la página principal, y clasificados por fecha. Uno de los primeros precursores de un blog fue el sitio web personal de Kibo, actualizado mediante USENET.Los primeros blogs eran simplemente componentes actualizados de sitios web comunes. Sin embargo, la evolución de las herramientas que facilitaban la producción y mantenimiento de artículos web publicados y ordenados de forma cronológica, hizo que el proceso de publicación pudiera dirigirse hacia muchas más personas, y no necesariamente a aquellos que tuvieran conocimientos técnicos. Últimamente, esto ha llevado a que en la actualidad existan diversos procedimientos para publicar blogs. Por ejemplo, el uso de algún tipo de software basado en navegador, es hoy en día un aspecto común del blogging.Los blogs pueden ser construidos y almacenados usando servicios de alojamiento de blogs dedicados, o pueden ser concretados y accedidos mediante software genérico para blogs, por ejemplo usando los productos Blogger o LiveJournal, o mediante servicios de alojamiento web corrientes.El término «weblog» fue acuñado por Jorn Barger el 17 de diciembre de 1997. La forma corta, «blog», fue acuñada por Peter Merholz, quien dividió la palabra weblogen la frase we blog en la barra lateral de su blog Peterme.com en abril o mayo de 1999,5​6​7​ y rápidamente fue adoptado tanto como nombre y verbo (asumiendo «bloguear» como «editar el weblog de alguien o añadir un mensaje en el weblog de alguien»).Tras un comienzo lento, los blogs ganaron popularidad rápidamente; el sitio Xanga, lanzado en 1996, solo tenía 100 diarios en 1997, pero más de 50 000 000 en diciembre de 2005. El uso de blogs se difundió durante 1999 y los siguientes años, siendo muy popularizado durante la llegada casi simultánea de las primeras herramientas de alojamiento de blogs:Open Diary lanzado en octubre de 1998, pronto creció hasta miles de diarios en línea. Open Diary innovó en los comentarios de los lectores, siendo el primer blog comunitario donde los lectores podían añadir comentarios a las entradas de los blogs.Brad Fitzpatrick comenzó LiveJournal en marzo de 1999.Andrew Smales creó Pitas.com en julio de 1999 como una alternativa más fácil para mantener una «página de noticias» en un sitio web, seguido de Diaryland en septiembre de 1999, centrándose más en la comunidad de diarios personales.8​Evan Williams y Meg Hourihan (Pyra Labs) lanzaron Blogger.com en agosto de 1999, que posteriormente fue adquirido por Google en febrero de 2003.El blogging combinaba la página web personal con herramientas para poder enlazar más fácilmente con otras páginas – en concreto permalinks, blogrolls y trackbacks. Esto, junto a los motores de búsqueda de weblogs, permitió a los blogueros llevar un seguimiento de los hilos que les conectaban con otros usuarios con intereses similares.2000-2006[editar]Los primeros blogs estadounidenses populares aparecieron en 2001: AndrewSullivan.com de Andrew Sullivan, Politics1.com de Ron Gunzburger, Political Wire de Taegan Goddard y MyDD de Jerome Armstrong, tratando principalmente temas políticos.En idioma español también aparecieron los primeros blogs en esa época. Los más destacados fueron en el año 2000 el blog llamado Terremoto.net y en el año 2001 aparecieron Claudia-P.com, donde una adolescente de Madrid explicaba su peculiar vida personal, y El hombre que comía diccionarios.9​En 2002, el blogging se había convertido en tal fenómeno que comenzaron a aparecer manuales, centrándose principalmente en la técnica. La importancia de la comunidad de blogs (y su relación con una sociedad más grande) cobró importancia rápidamente. Las escuelas de periodismo empezaron a investigar el fenómeno de los blogs y a establecer diferencias entre el periodismo y el blogging.En 2002, el amigo de Jerome Armstrong y exsocio Markos Moulitsas Zúniga comenzó DailyKos. Con picos de hasta un millón de visitas diarias, ese espacio web se ha convertido en uno de los blogs con más tráfico de Internet.En el año 2006, se escogió la fecha del 31 de agosto para celebrar en toda la red el llamado Día internacional del blog. La idea nació de un bloguero (usuario de blog) israelí llamado Nir Ofir, que propuso que en esta fecha, los blogueros que desarrollaban bitácoras personales enviaran cinco invitaciones de cinco blogs de diferentes temáticas a cinco diferentes contactos, para que así los internautas dieran difusión a blogs que seguramente otras personas desconocían, y que eventualmente les pudiera resultar interesantes.10​Presente[editar]Entre los servidores de blogs más populares se encuentran Blogger y Wordpress. Los cofundadores de Twitter, Evan Williams y Biz Stone, crearon la plataforma de escritura Medium.11​Algunos blogueros se han ido trasladando a la televisión y a los medios de prensa: Duncan Black, Glenn Reynolds (Instapundit), Markos Moulitsas Zúniga (Daily Kos), Alex Steffen (Worldchanging), Ana Marie Cox (Wonkette), Nate Silver (FiveThirtyEight.com), Nora Ephron (Huffington Post) y Ezra Klein (que se integró primeramente al blog American Prospect, después a The Washington Post).Alrededor del mundo se realizan recomendaciones de blogs y encuentros 12​ el día 31 de agosto, acrónimo 3108 con la palabra "blog". También se realizan eventos presenciales donde blogueros/as comparten sobre sus espacios e internet.Herramientas para su creación y mantenimiento[editar]Existen variadas herramientas de mantenimiento de blogs que permiten, muchas de ellas gratuitamente y sin necesidad de elevados conocimientos técnicos, administrar todo el weblog, coordinar, borrar o reescribir los artículos, moderar los comentarios de los lectores, etc., de una forma casi tan sencilla como administrar el correo electrónico. Actualmente su modo de uso se ha simplificado a tal punto, que casi cualquier usuario es capaz de crear y administrar un blog personal.Las herramientas de mantenimiento de weblogs se clasifican, principalmente, en dos tipos: aquellas que ofrecen una solución completa de alojamiento, gratuita (como Freewebs, Blogger y LiveJournal), y aquellas soluciones consistentes en software que, al ser instalado en un sitio web, permiten crear, editar y administrar un blog directamente en el servidor que aloja el sitio (como es el caso de WordPress o de Movable Type). Este software es una variante de las herramientas llamadas Sistemas de Gestión de Contenido (CMS), y muchos son gratuitos. La mezcla de los dos tipos es la solución planteada por WordPress.Las herramientas que proporcionan alojamiento gratuito asignan al usuario una dirección web (por ejemplo, en el caso de Blogger, la dirección asignada termina en "blogspot.com") y le proveen de una interfaz, a través de la cual se puede añadir y editar contenido. Obviamente, la funcionalidad de un blog creado con una de estas herramientas, se limita a lo que pueda ofrecer el proveedor del servicio, o hosting.Un software que gestione el contenido, en tanto, requiere necesariamente un servidor propio para ser instalado, del modo en que se hace en un sitio web tradicional. Su gran ventaja es que permite un control total sobre la funcionalidad que ofrecerá el blog, posibilitando así adaptarlo totalmente a las necesidades del sitio, e incluso combinarlo con otros tipos de contenido.Características diferenciales de un blog[editar]El éxito de los blogs se debe a que tienen una naturaleza muy peculiar que se caracteriza, sobre todo, por tres propiedades esenciales:Es una publicación periódica. Los blogs publican nuevos contenidos en periodos de tiempo relativamente cortos.Un blog admite comentarios de los lectores y esto hace posible que se cree una comunidad en torno al autor. Los blogs son uno de los medios que mejor representan su esencia. Gracias a la posibilidad de recibir comentarios de los lectores, se pasa de una comunicación unilateral (medio de comunicación hacia el lector) a una comunicación bilateral, en la que el lector es también protagonista. El efecto que esta ha tenido es la creación de "comunidades" de lectores muy fieles, muy parecidas a las que existen, por ejemplo, en un foro de discusión. Esto ha resultado ser también muy ventajoso desde un punto de vista profesional o comercial porque estos lectores son personas fidelizadas que confían en el autor y, por tanto, muy abiertas a las recomendaciones e incluso venta de productos y servicios por parte del autor del blog.Un blog tiene un marcado toque personal. Aunque esta característica se haya diluido quizás un poco en los últimos años con la aparición de blogs corporativos y profesionales, incluso estos blogs intentan mantener un ambiente mucho más personal e informal que ayuda mucho a que se vaya forjando una relación de confianza entre el autor del blog y sus lectores, buscando mucho más la creación de un ambiente parecido al que hay entre amigos que la relación clásica entre una publicación comercial y sus lectores.Características técnicas[editar]Existe una serie de elementos comunes a todos los blogs.Comentarios[editar]Mediante un formulario se permite, a otros usuarios de la web, añadir comentarios a cada entrada, pudiéndose generar un debate alrededor de sus contenidos, además de cualquier otro intercambio de información (si el autor del blog lo prefiere, no se podrán añadir comentarios a las entradas).Enlaces[editar]Una particularidad que diferencia a los weblogs de los sitios de noticias, es que las anotaciones suelen incluir múltiples enlaces a otras páginas web (no necesariamente weblogs), como referencias o para ampliar la información agregada. Además, y entre otras posibilidades, permite la presencia y uso de:Un enlace permanente (permalink) en cada anotación, para que cualquiera pueda citarla.Un archivo de las anotaciones anteriores.Una lista de enlaces a otros weblogs seleccionados o recomendados por los autores, denominada habitualmente blogroll.Enlaces inversos[editar]En algunos casos las anotaciones o historias permiten que se les haga trackback, un enlace inverso (o retroenlace) que permite, sobre todo, saber que alguien ha enlazado la entrada y avisar a otro weblog que se está citando una de sus entradas o que se ha publicado un artículo relacionado. Todos los trackbacks aparecen automáticamente a continuación de la historia, junto con los comentarios, aunque no siempre es así.Fotografías y vídeos[editar]Es posible además agregar fotografías y vídeos a los blogs. Los blogs dedicados únicamente a esto han recibido el nombre de fotoblogs y videoblogs respectivamente. Con ello, se facilita la comprensión de la información a la persona que lo lee.Redifusión[editar]Otra característica de los weblogs es la multiplicidad de formatos en los que se publican. Aparte de HTML, suelen incluir algún medio para redifundirlos, es decir, para poder leerlos mediante un programa que pueda incluir datos procedentes de muchos medios diferentes. Generalmente, para la redifusión se usan fuentes web en formato RSS o Atom. Se pretende la difusión de la información proporcionada en el blog.Integración[editar]Los blogs permiten mostrar incrustados en sus páginas recursos multimedia alojados en servicios web 2.0: imágenes, audios, vídeos, etc.13​Características sociales[editar]También se diferencian en su soporte económico: los sitios de noticias o periódicos digitales suelen estar administrados por profesionales, mientras que los weblogs son principalmente personales y aunque en algunos casos pueden estar incluidos dentro de un periódico digital o ser un blog corporativo, suelen estar escritos por un autor o autores determinados que mantienen habitualmente su propia identidad.Un aspecto importante de los weblogs es su interactividad, especialmente en comparación a páginas web tradicionales. Dado que se actualizan frecuentemente y permiten a los visitantes responder a las entradas, los blogs funcionan a menudo como herramientas sociales, para conocer a personas que se dedican a temas similares, con lo cual en muchas ocasiones llegan a ser considerados como una comunidad.Enemigos del correcto funcionamiento de un blog[editar]Al igual que en los foros, los principales enemigos son el spam, los troles y los leechers. También suelen provocar problemas los fake (usuarios que se hacen pasar por otros usuarios) y algunos usuarios títeres (usuarios que se hacen pasar por varios y diferentes usuarios).Aunque no son enemigos, los recién llegados (o newbies) pueden ocasionar problemas en el funcionamiento del blog al cometer errores; ya sea por no poder adaptarse rápidamente a la comunidad, o por no leer las reglas específicas que puede tener el blog en el que acaban de ingresar.Otro problema es el de la lectura, producto del lenguaje usado por los chaters.Tipos de blogs[editar]Hay muchos tipos diferentes de blogs, no solo por el contenido, sino por la forma en la que el contenido se escribe.Blog personal[editar]El blog personal, un diario en curso o un comentario de un individuo, es el blog más tradicional y común. Los blogs suelen convertirse en algo más que en una forma para comunicarse, también se convierten en una forma de reflexionar sobre la vida u obras de arte. Los blogs pueden tener una calidad sentimental. Pocos blogs llegan a ser famosos, pero algunos de ellos pueden llegar a reunir rápidamente un gran número de seguidores. Un tipo de blog personal es el micro blog, es extremadamente detallado y trata de capturar un momento en el tiempo. Algunos sitios, como Twitter, permiten a los blogueros compartir pensamientos y sentimientos de forma instantánea con amigos y familiares, y son mucho más rápidos que el envío por correo o por escrito.Microblogging[editar]Microblogging es la práctica de publicar pequeños fragmentos de contenidos digitales (puede ser texto, imágenes, enlaces, vídeos cortos u otros medios de comunicación) en Internet. Ofrece un modo de comunicación que para muchos es orgánica, espontánea y captura la imaginación del público. Lo utilizan amigos para mantenerse en contacto, socios de negocios para coordinar las reuniones o compartir recursos útiles, y las celebridades y políticos para las fechas de sus conciertos, conferencias, lanzamientos de libros u horarios de viajes. Una amplia y creciente gama de herramientas adicionales permite actualizaciones complejas y la interacción con otras aplicaciones, y la profusión resultante de la funcionalidad está ayudando a definir nuevas posibilidades para este tipo de comunicación.Blogs corporativos y organizacionales[editar]Un blog puede ser privado, como en la mayoría de los casos, o puede ser para fines comerciales. Los blogs que se usan internamente para mejorar la comunicación y la cultura de una sociedad anónima o externamente para las relaciones de marketing, branding o relaciones públicas se llaman blogs corporativos. Blogs similares para los clubes y sociedades se llaman blogs de club, blogs de grupo o por nombres similares; el típico uso consiste en informar a los miembros y a otras partes interesadas sobre las fiestas del club y las actividades de sus miembros.Un blog corporativo suele formar parte de una estrategia de content marketing o marketing de contenidos, cuya finalidad es atraer tráfico orgánico hacia la web de empresa y conseguir clientes interesados en un producto o servicio. Para este fin, se aconseja que el blog corporativo se delimite a ciertas normas no consensuadas, pero aceptadas por las buenas prácticas:Hay que escribir de lo que se sabe. Añadir valor es aportar conocimientos cualificados y contrastables, es evitar la confusión informativa y es prohibirse a uno mismo la polémica. Qué mejor forma de realizar esta máxima que escribiendo desde la propia profesión.Hay que evitar la autocomplacencia. Un blog corporativo busca atraer, no convencer, por lo que escribir únicamente sobre las cualidades positivas y excelentes de uno mismo o de la empresa suele causar suspicacia. En realidad, la seriedad con la que se expresa el contenido ya hace el trabajo de la propia excelencia.Hay que ser constante. No se debe publicar de tanto en tanto ni crear la sensación de vacío y silencio entre aquellos que puedan estar esperando una respuesta. Un artículo por semana puede ser suficiente para dar a entender que la empresa está viva, pero dos o tres reflejan que está trabajando.Hay que ganar suscriptores. Ley incondicional de todo blog: si se recaba información de los lectores, se crea la propia base de datos de clientes potenciales y, a partir de ahí, se crean estrategias de marketing más amplias y complejas, como la de los e-mailing.Hay que ser participativo. Esto es aplicable en dos sentidos.Si la empresa cuenta con varios trabajadores cualificados, es recomendable darles también la palabra y que escriban artículos. Esto es sumamente efectivo si cada uno de esos trabajadores es experto en un campo determinado. Además, de este modo se asegura que el blog fluya porque no depende de la disponiblidad de una sola persona.El autor o autores de los artículos deben permitir la interacción con y entre los usuarios que acceden al blog. Responder siempre y con educación no es recomendable: es obligatorio. No se debe prohibir nada, pero sí intervenir cuando el tono de algún usuario (sobre todo contra otro usuario) resulte grosero o insultante: hay que crear comunidad.Hay que tener una sola voz. Esto no atenta contra el apartado anterior: una sola voz no es un solo escritor, sino un estilo determinado, una firma corporativa específica, un tono característico. Si el blog está conformado por varios autores, estos deben coordinarse para evitar contradicciones entre artículos o cambios de tono demasiado evidentes.Hay que planificar. Significa crear una política clara de publicación, atendiendo a elementos tales como:Categorías: es recomendable que todas las categorías del blog tiendan al mismo número de artículos.Calendario: la constancia se consigue, la mayor parte de las veces, fijando fechas de publicación.Actualidad: el contenido de un artículo es más relevante cuanto más se aproxime a la realidad del lector. Esto se suele conseguir si el tema que se trata es actual, pues dada la realidad hiper-informada en la que vivimos, prácticamente todos compartimos el mismo contenedor de actualidad. Si, además, se consigue que el blog corporativo sea uno de los primeros en hablar sobre un tema concreto, habrá alcanzado un nivel de prevalencia que la comunidad tendrá en cuenta.Blogs educativos[editar]Artículo principal: Blog educativoUn blog educativo o edublog está compuesto por materiales, experiencias, reflexiones y contenidos didácticos, que permite la difusión periódica y actualizada de las actividades realizadas en la escuela. Los blogs educativos permiten al profesorado la exposición y comunicación entre la comunidad educativa y el alumnado, potenciando un aprendizaje activo, crítico e interactivo.Por el género[editar]Algunos blogs se centran en un tema particular, como los blogs políticos, blogs de lgbt, blogs educativos, blogs de salud, blogs de viajes (también conocidos como cuadernos de viajes), blogs de jardinería, blogs de la casa, blogs de moda, blogs de proyectos educativos, blogs de música clásica, blogs de esgrima, blogs jurídicos, etc. Dos tipos comunes de blogs de género son los blogs de música y los blogs de arte. A los blogs con discusiones especialmente sobre el hogar y la familia no es infrecuente llamarlos blogs mamá, y este tipo de blogs se hizo popular por Erica Diamond, creadora de Womenonthefence.com, que es seguido por más de dos millones de lectores mensuales. Aunque no es un tipo legítimo de blog, ya que se utiliza con el único propósito de hacer spams, se conoce como un Splog.Por el tipo de medios de comunicación[editar]Un blog que incluye vídeos se llama vlog, uno que incluye enlaces se denomina linklog, un sitio que contiene un portafolio de bocetos se llama sketchblog, u otro que incluye fotos se llama fotolog. Los blogs con mensajes cortos y con tipos de medios mixtos se llaman tumblelogs. Aquellos blogs que se redactan en máquinas de escribir y luego son escaneados, se denominan blogs typecast. Un tipo raro de blog incluido en el protocolo Gopher es conocido como un Phlog.Por el dispositivo[editar]Los blogs también pueden diferenciarse por el tipo de dispositivo que se utiliza para construirlo. Un blog escrito por un dispositivo móvil, como un teléfono móvil o una PDA, podría llamarse moblog. Uno de los blogs más nuevos es el Wearable Wireless Webcam, un diario en línea compartido de la vida personal de un individuo, que combina texto, vídeo e imágenes transmitidas en directo desde un ordenador portátil y un dispositivo Eye Tap a un sitio web. Esta práctica semiautomatizada de blogs con vídeo en directo junto con el texto se conoce como sub-supervisión. Estas revistas se han utilizado como pruebas en asuntos legales.Blog inversa[editar]Este blog está compuesto por sus usuarios en lugar de un solo bloguero. Este sistema tiene las características de un blog y la escritura de varios autores. Estos blogs pueden estar escritos por varios autores que han contribuido en un tema o que han abierto uno para que cualquiera pueda escribir. Normalmente hay un límite para el número de entradas, para evitar que se opere como un foro de Internet.Red de blogs[editar]Es un grupo de blogs que están conectados entre sí en una red. Una red de blogs puede ser o bien un grupo de blogs vagamente conectados, o un grupo de blogs que son propiedad de la misma empresa. El propósito de esta red es por lo general promover los otros blogs en la misma red y, por tanto, aumentar los ingresos publicitarios generados a partir de la publicidad en línea en los blogs.14​Taxonomía[editar]Algunas variantes del weblog son los openblog, fotolog, los vlogs (videoblogs), los audioblogs y los 

a

DERECHO DE AUTOR

r

Derecho de autorPara el derecho de autor en Wikipedia, véase Wikipedia:Derechos de autor. El símbolo del copyright, “©”, se usa para indicar que una obra está sujeta al derecho de autor.El derecho de autor es un conjunto de normas jurídicas y principios que afirman los derechos morales y patrimoniales que la ley concede a los autores (los derechos de autor), por el simple hecho de la creación de una obra literaria, artística, musical, científica o didáctica, esté publicada o inédita. La legislación sobre derechos de autor en Occidente se inicia en 1710 con el Estatuto de la Reina Ana.Se reconoce que los derechos de autor son uno de los derechos humanos fundamentales en la Declaración Universal de los Derechos Humanos.1​En el derecho anglosajón se utiliza la noción de copyright (traducido literalmente como ‘derecho de copia’) que —por lo general— comprende la parte patrimonial de los derechos de autor (derechos patrimoniales).Una obra pasa al dominio público cuando los derechos patrimoniales han expirado. Esto sucede habitualmente trascurrido un plazo desde la muerte del autor (post mortem auctoris). El plazo mínimo, a nivel mundial, es de 50 años y está establecido en el Convenio de Berna. Muchos países han extendido ese plazo ampliamente. Por ejemplo, en el Derecho europeo, son 70 años desde la muerte del autor. Una vez pasado ese tiempo, dicha obra entonces puede ser utilizada en forma libre, respetando los derechos morales.Índice  [ocultar] 1Historia de los derechos de autor2Derecho de autor y copyright2.1Evolución del copyright3Símbolos4Campo de aplicación4.1Clases de derechos de autor5Críticas al sistema de copyright5.1Protección desproporcionalmente prolongada5.2Cálculo infundado de la duración de la protección5.3Falta de información sobre el poseedor5.4Monopolización de la expresión5.5Propuestos del azar5.6Contrario a la libre difusión de la cultura5.7Anula la libertad de expresión al restringirla6Regulación del derecho de autor7Licencias y contenidos libres8Internet y las redes P2P9Casos Nacionales9.1Alemania9.2Antigua Unión Soviética9.3Argentina9.4Bolivia9.5Brasil9.6Canadá9.7Colombia9.8Panamá9.9Guatemala9.10El Salvador9.11Honduras9.12Nicaragua9.13Costa Rica9.14Chile9.15Dinamarca9.16Ecuador9.16.1Marco constitucional ecuatoriano9.16.2Marco legislativo ecuatoriano9.16.3Autor y titularidad9.16.4Objeto del derecho de autor9.16.5Transmisión y transferencia del derecho de autor9.16.6Limitaciones y excepciones al derecho de autor9.17España9.17.1Canon digital9.18India9.19México9.20Perú9.21Uruguay9.22República Dominicana9.23Venezuela9.24Países no hispanohablantes9.25Tratados internacionales9.26Legislación en la Unión Europea10Véase también11Referencias12Bibliografía13Enlaces externosHistoria de los derechos de autor[editar]Artículo principal: Historia de los derechos de autorDesde los orígenes de la humanidad, las obras no tuvieron prohibiciones de copia, de reproducción ni de edición. Es posible mencionar casos tan antiguos como el arte rupestre, creado hace 40 milenios en la Cueva de El Castillo en España, o el Poema de Gilgamesh, desarrollado desde hace cuatro milenios por los sumerios, escrito y preservado hace 2650 años gracias al rey asirio Asurbanipal.Luego de la aparición de la imprenta, se facilitó la distribución y copia masiva de las obras, y posteriormente surgió la necesidad de proteger las obras no como objetos materiales, sino como fuentes de propiedad intelectual.Los primeros casos que se recogen en leyes sobre el derecho de copia provienen de la antigua Irlanda. El Cathach es el manuscrito irlandés más antiguo existente de los Salmos (principios del siglo VII) y el ejemplo más antiguo de la literatura irlandesa. Contiene una Vulgata de los Salmos XXX (10) al CV (13), y es una versión con una indicación de interpretación o de partida antes de cada salmo. Tradicionalmente se atribuye su creación a san Columba como el copista, y dicha copia se hizo de forma extraordinaria en una sola noche a toda prisa gracias a una luz milagrosa, de un salterio prestado a San Columba por san Finnian. Surgió una controversia sobre la propiedad de la copia, y el rey Diarmait Mac Cerbhaill dictó la siguiente frase: «A cada vaca le pertenece su cría; por lo tanto, a cada libro le pertenece su copia».2​Aunque formalmente suele datarse el nacimiento del derecho de autor y del copyright durante el siglo XVIII, en realidad se puede considerar que el primer autor en reclamar derechos de autor en el mundo occidental, mucho antes que el Estatuto de la Reina Ana de 1710 del Reino Unido o las disputas de 1662 en las que interfirió la Unión de las Coronas, fue Antonio de Nebrija, creador de la célebre Gramática castellana e impulsor de la imprenta en la Universidad de Salamanca a fines del siglo XV.Más tarde, en la Inglaterra del siglo XVIII los editores de obras (los libreros) argumentaban la existencia de un derecho a perpetuidad a controlar la copia de los librosque habían adquirido de los autores. Dicho derecho implicaba que nadie más podía imprimir copias de las obras sobre las cuales tuvieran el copyright. El Estatuto de la reina Ana entró en vigencia en 1710.El Estatuto de la Reina Ana, aprobado por el parlamento inglés en 1710, fue la primera norma sobre copyright de la historia. Esta ley establecía que todas las obras publicadas recibirían un plazo de copyright de 14 años, renovable por una vez si el autor se mantenía con vida (o, sea, un máximo de 28 años de protección). Mientras que todas las obras publicadas antes de 1710 recibirían un plazo único de 21 años, contados a partir de esa fecha. Sin embargo, el dominio público en el derecho anglosajón solo nació en 1774, tras el caso Donaldson contra Beckett en que se discutió la existencia del copyright a perpetuidad (la Cámara de los Lores resolvió 22 votos a 11 en contra de esa idea).Estados Unidos incorporó los principios sentados en Inglaterra sobre el copyright. Así, la Constitución de 1787, en el artículo I, sección 8, cláusula 8 (la cláusula del progreso) permite establecer en favor de los autores “derechos sobre la propiedad creativa” por tiempo limitado. En 1790, el Congreso de Estados Unidos promulgó la primera Copyright Act ('Ley sobre copyright'), y creó un sistema federal de copyright y lo protegió por un plazo de catorce años, renovable por igual término si el autor estaba vivo a su vencimiento (o sea, un máximo de 28 años de protección). Si no existía renovación, su obra pasaba al dominio público.Mientras en Estados Unidos el copyright se convertía en un derecho de propiedad comerciable, en Francia y en Alemania se desarrolló el derecho de autor, bajo la idea de expresión única del autor. En esa línea, el filósofo alemán Immanuel Kant decía que “una obra de arte no puede separarse de su autor”.En Francia en 1777, Pierre-Augustin de Beaumarchais (autor de la comedia El barbero de Sevilla) fundó la primera organización para promover el reconocimiento de los derechos de los autores. Pero hubo que esperar al final de la Revolución francesa para que la Asamblea Nacional aprobara la primera Loi du droit d'auteur (‘Ley de derecho de autor’) en 1791.Derecho de autor y copyright[editar]El derecho de autor y copyright constituyen dos concepciones sobre la propiedad literaria y artística. El primero proviene de la familia del derecho continental, particularmente del derecho francés, mientras que el segundo procede del derecho anglosajón (o common law).El derecho de autor se basa en la idea de un derecho personal del autor, fundado en una forma de identidad entre el autor y su creación. El derecho moral está constituido como emanación de la persona del autor: reconoce que la obra es expresión de la persona del autor y así se le protege.La protección del copyright se limita estrictamente a la obra, sin considerar atributos morales del autor en relación con su obra, excepto la paternidad; no lo considera como un autor propiamente tal, pero tiene derechos que determinan las modalidades de utilización de una obra.Evolución del copyright[editar]En 1790, las obras protegidas por la Copyright Act de Estados Unidos eran solo los “mapas, cartas de navegación y libros” (no cubría las obras musicales o de arquitectura). Este copyright otorgaba al autor el derecho exclusivo a publicar las obras, por lo que solo se violaba tal derecho si reimprimía la obra sin el permiso de su titular. Además, este derecho no se extendía a las “obras derivadas” (era un derecho exclusivo sobre la obra en particular), por lo que no impedía las traducciones o adaptaciones de dicho texto. Con los años, el titular del copyright obtuvo el derecho exclusivo a controlar cualquier publicación de su obra. Sus derechos se extendieron, de la obra en particular, a cualquier obra derivada que pudiera surgir con base en la “obra original”.Asimismo, el Congreso de los Estados Unidos incrementó en 1831 el plazo inicial del copyright de 14 a 21 años (o sea, se llegó a un máximo de 42 años de protección) y en 1909 extendió el plazo de renovación de 21 a 28 años (obteniéndose un máximo de 56 años de protección). Y, a partir de los años 50, comenzó a extender los plazos existentes en forma habitual (1962, 1976 y 1998).Símbolos[editar]En la legislación española el Real Decreto Legislativo 1/1996, de 12 de abril, por el que se aprueba el texto refundido de la Ley de la Propiedad Intelectual, regula en su art. 146 los símbolos o indicaciones de reserva de derechos:El titular o cesionario en exclusiva de un derecho de explotación sobre una obra o producción protegidas por esta Ley podrá anteponer a su nombre el símbolo ©con precisión del lugar y año de la divulgación de aquellas.También se establece que en las copias de fonogramas o las envolturas de los mismos se podrán anteponer al nombre del productor o de su cesionario, el símbolo (p), indicando el año de la publicación.Estos símbolos y referencias deberán hacerse constar de modo que se muestren claramente que los derechos de explotación están reservados.El símbolo ℗ representa la reserva de los derechos de autor sobre una grabación, y es la abreviatura de la palabra “fonógrafo”, phonograph en inglés, o registro fonográfico. Este símbolo hace referencia al fonograma (máster de audio) no a la obra musical en sí grabada; es muy común verlo impreso en las contraportadas de los discos. Por otro lado, el símbolo © sí hace referencia al derecho de copia (copyright) que protege obras intelectuales, como letras y la música de una canción (escritos), libros, obras dramáticas, obras cinematográficas y audiovisuales; dibujos, pinturas; programas de ordenador, etc.3​4​Campo de aplicación[editar]La protección del derecho de autor abarca únicamente la expresión de un contenido, pero no las ideas. Para su nacimiento no necesita de ninguna formalidad, es decir, no requiere de la inscripción en un registro o el depósito de copias, los derechos de autor nacen con la creación de la obra.5​6​7​Son objeto de protección las obras originales, del campo literario, artístico y científico, cualquiera que sea su forma de expresión, soporte o medio.5​6​ Entre otras:Libros, folletos y otros escritos;8​5​6​Obras dramáticas o dramático-musicales;8​5​6​Obras coreográficas y las pantomimas;8​5​6​Composiciones musicales con o sin letra;8​5​6​Obras musicales y otras grabaciones sonoras;8​5​6​Obras cinematográficas y otras obras audiovisuales;8​5​6​Obras de dibujo, pintura, escultura, grabado, litografía;8​5​6​Historietas gráficas, tebeos o cómics, así como sus ensayos o bocetos;8​5​6​Obras fotográficas;8​5​6​Gráficos, mapas y diseños relativos a la geografía, a la topografía o a las ciencias;8​5​6​Los proyectos, planos, maquetas y diseños de obras arquitectónicas y de ingeniería.8​5​6​Programas informáticos.8​5​6​Entrevistas.8​5​6​Sitios web.8​5​6​Hay varias categorías de materiales que generalmente no son elegibles para la protección de derecho de autor. Estas incluyen entre otras como estas:Trabajos que no han sido fijados en una forma de expresión tangible. Por ejemplo: obras coreográficas que no han sido escritas o grabadas, o discursos improvisados o presentaciones que no han sido escritas o grabadas.6​Títulos, nombres, frases cortas y lemas, símbolos o diseños familiares, meras variantes de decoración tipográfica, letras o colores; meras listas de ingredientes o contenidos.6​Ideas, procedimientos, métodos, sistemas, procesos, conceptos, principios, descubrimientos, aparatos, como diferenciaciones de una descripción, explicación o ilustración.6​Obras que consisten en su totalidad de información que es de conocimiento público y no representan un trabajo que tenga un autor original. (Por ejemplo: calendarios, tablas de peso y estatura, cintas métricas o reglas, y listas o tablas obtenidas de documentos públicos u otras fuentes de uso común).6​Las leyes, reglamentos y demás normas. Se pueden publicar pero no dan exclusividad: otros pueden también publicar ediciones de las leyes. En los casos de obras como concordancias, correlaciones, comentarios y estudios comparativos de las leyes, sí pueden ser protegidas en lo que tengan de trabajo original del autor.9​10​El titular de los derechos de autor goza de derechos exclusivos respecto de:Reproducir la obra en copias o fonogramas.6​Preparar obras derivadas basadas en la obra.6​Distribuir copias o fonogramas de la obra al público vendiéndolas o haciendo otro tipo de transferencias de propiedad tales como alquilar, arrendar o prestar dichas copias.6​Mostrar la obra públicamente, en el caso de obras literarias, musicales, dramáticas coreográficas, pantomimas, obras pictóricas, gráficas y esculturales, incluyendo imágenes individuales de películas u otras producciones audiovisuales.6​En el caso de grabaciones sonoras, interpretar la obra públicamente a través de la transmisión audiodigital.6​La protección del derecho de autor existe desde que la obra es creada de una forma fijada. El derecho de autor sobre una obra creada se convierte inmediatamente en propiedad del autor que creó dicha obra. Solo el autor o aquellos cuyos derechos derivan del autor pueden reclamar propiedad.6​Los autores de una obra colectiva son co-dueños del derecho de autor de dicha obra a menos que haya un acuerdo que indique lo contrario.6​El derecho de autor de cada contribución individual de una publicación periódica o en serie, o cualquier otra obra colectiva, existe aparte del derecho de autor de una obra colectiva en su totalidad y están conferidos inicialmente al autor de cada contribución. La mera posesión de un libro, manuscrito, pintura o cualquier otra copia o fonograma le otorga al dueño el derecho de autor.6​Los menores de edad pueden reclamar derecho de autor, pero las leyes específicas pueden reglamentar cualquier transacción relacionada con este tema donde ellos sean parte.6​Clases de derechos de autor[editar]Dentro de la tradición jurídica del Derecho continental, Derecho internac

a

COMPUTACION EN LA NUBE

r

Computación en la nube Computación en la nubeLa computación en la nube (del inglés cloud computing),1​ conocida también como servicios en la nube, informática en la nube, nube de cómputo, nube de conceptos o simplemente "la nube", es un paradigma que permite ofrecer servicios de computación a través de una red, que usualmente es Internet.Índice  [ocultar] 1Introducción2Comienzos3Fundamentos4Características5Ventajas6Desventajas7Servicios ofrecidos7.1Software como servicio7.2Plataforma como servicio7.2.1Ventajas y desventajas7.2.2Tipos7.2.2.1Públicos, privados e híbridos7.2.2.2Mobile PaaS7.2.2.3PaaS Abierto7.2.2.4PaaS para el Desarrollo Rápido7.2.2.4.1Tipos de Sistemas7.3Infraestructura como servicio8Tipos de nubes9Comparaciones10Controversia11Aspectos de seguridad11.1Seguridad como servicio11.2Seguridad del navegador11.3Autenticación o identificación11.4Pérdida de gobernanza11.5Lock-In11.6Protección de los datos12Limitaciones12.1Pérdidas de datos/fuga12.2Dificultad de valorar la fiabilidad de los proveedores12.3Fuerza de los mecanismos de autentificación13Investigación14Aplicaciones15Véase también16Referencias17Enlaces externosIntroducción[editar]En este tipo de computación todo lo que puede ofrecer un sistema informático se ofrece como servicio, de modo que los usuarios puedan acceder a los servicios disponibles "en la nube de Internet" sin conocimientos (o, al menos sin ser expertos) en la gestión de los recursos que usan. Según el IEEE Computer Society, es un paradigma en el que la información se almacena de manera permanente en servidores de Internet y se envía a cachés.La computación en la nube son servidores desde Internet encargados de atender las peticiones en cualquier momento. Se puede tener acceso a su información o servicio, mediante una conexión a internet desde cualquier dispositivo móvil o fijo ubicado en cualquier lugar. Sirven a sus usuarios desde varios proveedores de alojamiento repartidos frecuentemente por todo el mundo. Esta medida reduce los costos, garantiza un mejor tiempo de actividad y que los sitios web sean invulnerables a los delincuentes informáticos, a los gobiernos locales y a sus redadas policiales pertenecientes.Cloud computing es un nuevo modelo de prestación de servicios de negocio y tecnología, que permite incluso al usuario acceder a un catálogo de servicios estandarizados y responder con ellos a las necesidades de su negocio, de forma flexible y adaptativa, en caso de demandas no previsibles o de picos de trabajo, pagando únicamente por el consumo efectuado, o incluso gratuitamente en caso de proveedores que se financian mediante publicidad o de organizaciones sin ánimo de lucro.El cambio que ofrece la computación desde la nube es que permite aumentar el número de servicios basados en la red. Esto genera beneficios tanto para los proveedores, que pueden ofrecer, de forma más rápida y eficiente, un mayor número de servicios, como para los usuarios que tienen la posibilidad de acceder a ellos, disfrutando de la ‘transparencia’ e inmediatez del sistema y de un modelo de pago por consumo. Así mismo, el consumidor ahorra los costes salariales o los costes en inversión económica (locales, material especializado, etc.).Computación en nube consigue aportar estas ventajas, apoyándose sobre una infraestructura tecnológica dinámica que se caracteriza, entre otros factores, por un alto grado de automatización, una rápida movilización de los recursos, una elevada capacidad de adaptación para atender a una demanda variable, así como virtualización avanzada y un precio flexible en función del consumo realizado, evitando además el uso fraudulento del software y la piratería.El concepto de “nube informática” es muy amplio, y abarca casi todos los posibles tipo de servicio en línea, pero cuando las empresas predican ofrecer un utilitario alojado en la nube, por lo general se refieren a alguna de estas tres modalidades: el software como servicio (por sus siglas en inglés SaaS —Software as a Service—), Plataforma como Servicio (PaaS) e Infraestructura como Servicio (IaaS).El software como servicio (SaaS) es un modelo de distribución de software en el que las aplicaciones están alojadas por una compañía o proveedor de servicio y puestas a disposición de los usuarios a través de una red, generalmente la Internet. Plataforma como servicio (PaaS) es un conjunto de utilitarios para abastecer al usuario de sistemas operativos y servicios asociados a través de Internet sin necesidad de descargas o instalación alguna. Infraestructura como Servicio (IaaS) se refiere a la tercerización de los equipos utilizados para apoyar las operaciones, incluido el almacenamiento, hardware, servidores y componentes de red.Comienzos[editar]El concepto de la computación en la nube empezó en proveedores de servicio de Internet a gran escala, como Google (Google Cloud Services), Amazon AWS (2006), Microsoft (Microsoft Azure) o Alibaba Cloud y otros que construyeron su propia infraestructura. De entre todos ellos emergió una arquitectura: un sistema de recursos distribuidos horizontalmente, introducidos como servicios virtuales de TI escalados masivamente y manejados como recursos configurados y mancomunados de manera continua. Este modelo de arquitectura fue inmortalizado por George Gilder en su artículo de octubre de 2006 en la revista Wired titulado «Las fábricas de información». Las granjas de servidores, sobre las que escribió Gilder, eran similares en su arquitectura al procesamiento “grid” (red, rejilla), pero mientras que las redes se utilizan para aplicaciones de procesamiento técnico débilmente acoplados (loosely coupled), un sistema compuesto de subsistemas con cierta autonomía de acción, que mantienen una interrelación continua entre ellos, este nuevo modelo de nube se estaba aplicando a los servicios de Internet.2​Fundamentos[editar]El concepto fundamental de la entrega de los recursos informáticos a través de una red global tiene sus raíces en los años sesenta. La idea de una "red de computadoras intergaláctica" la introdujo en los años sesenta JCR Licklider, cuya visión era que todo el mundo pudiese estar interconectado y poder acceder a los programas y datos desde cualquier lugar, según Margaret Lewis, directora de mercadotecnia de producto de AMD. "Es una visión que se parece mucho a lo que llamamos cloud computing".Otros expertos atribuyen el concepto científico de la computación en nube a John McCarthy, quien propuso la idea de la computación como un servicio público, de forma similar a las empresas de servicios que se remontan a los años sesenta. En 1960 dijo: "Algún día la computación podrá ser organizada como un servicio público".3​Desde los años sesenta, la computación en nube se ha desarrollado a lo largo de una serie de líneas. La Web 2.0 es la evolución más reciente. Sin embargo, como Internet no empezó a ofrecer ancho de banda significativo hasta los años noventa, la computación en la nube ha sufrido algo así como un desarrollo tardío. Uno de los primeros hitos de la computación en nube es la llegada de Salesforce.com en 1999, que fue pionero en el concepto de la entrega de aplicaciones empresariales a través de una página web simple. La firma de servicios allanó el camino para que tanto especialistas como empresas tradicionales de software pudiesen publicar sus aplicaciones a través de Internet.El siguiente desarrollo fue Amazon Web Services en 2002, que prevé un conjunto de servicios basados en la nube, incluyendo almacenamiento, computación e incluso la inteligencia humana a través del Amazon Mechanical Turk. Posteriormente en 2006, Amazon lanzó su Elastic Compute Cloud (EC2) como un servicio comercial que permite a las pequeñas empresas y los particulares alquilar equipos en los que se ejecuten sus propias aplicaciones informáticas."Amazon EC2/S3 fue el que ofreció primero servicios de infraestructura en la nube totalmente accesibles”, según Jeremy Allaire, CEO de Brightcove, que proporciona su plataforma SaaS de vídeo en línea a las estaciones de televisión de Reino Unido y periódicos.George Gilder dijo en 2006: "El PC de escritorio está muerto. Bienvenido a la nube de Internet, donde un número enorme de instalaciones en todo el planeta almacenarán todos los datos que usted podrá usar alguna vez en su vida".Otro hito importante se produjo en 2009, cuando Google y otros empezaron a ofrecer aplicaciones basadas en navegador. "La contribución más importante a la computación en nube ha sido la aparición de 'aplicaciones asesinas' de los gigantes de tecnología como Microsoft y Google. Cuando dichas compañías llevan a cabo sus servicios de una manera que resulta segura y sencilla para el consumidor, el efecto 'pasar la pelota' en sí crea un sentimiento de mayor aceptación de los servicios online”, según Dan Germain, jefe de la oficina de tecnología en IT proveedor de servicios Cobweb Solutions.Otro de los factores clave que han permitido evolucionar a la computación en la nube han sido, según el pionero en computación en la nube británico Jamie Turner, las tecnologías de virtualización, el desarrollo del universal de alta velocidad de ancho de banda y normas universales de interoperabilidad de software. Turner añadió: "A medida que la computación en nube se extiende, su alcance va más allá de un puñado de usuarios de Google Docs. Solo podemos empezar a imaginar su ámbito de aplicación y alcance. Casi cualquier cosa puede ser utilizado en la nube".Características[editar]La computación en nube presenta las siguientes características clave:Agilidad: Capacidad de mejora para ofrecer recursos tecnológicos al usuario por parte del proveedor.Costo: los proveedores de computación en la nube afirman que los costos se reducen. Un modelo de prestación pública en la nube convierte los gastos de capital en gastos de funcionamiento. Ello reduce barreras de entrada, ya que la infraestructura se proporciona típicamente por una tercera parte y no tiene que ser adquirida por una sola vez o tareas informáticas intensivas infrecuentes.Escalabilidad y elasticidad: aprovisionamiento de recursos sobre una base de autoservicio casi en tiempo real, sin que los usuarios necesiten cargas de alta duración.Independencia entre el dispositivo y la ubicación: permite a los usuarios acceder a los sistemas utilizando un navegador web, independientemente de su ubicación o del dispositivo que utilice (por ejemplo, PC, teléfono móvil).La tecnología de virtualización permite compartir servidores y dispositivos de almacenamiento y una mayor utilización. Las aplicaciones pueden ser fácilmente migradas de un servidor físico a otro.Rendimiento: Los sistemas en la nube controlan y optimizan el uso de los recursos de manera automática, dicha característica permite un seguimiento, control y notificación del mismo. Esta capacidad aporta transparencia tanto para el consumidor o el proveedor de servicio.Seguridad: puede mejorar debido a la centralización de los datos. La seguridad es a menudo tan buena o mejor que otros sistemas tradicionales, en parte porque los proveedores son capaces de dedicar recursos a la solución de los problemas de seguridad que muchos clientes no pueden permitirse el lujo de abordar. El usuario de la nube es responsable de la seguridad a nivel de aplicación. El proveedor de la nube es responsable de la seguridad física.4​Mantenimiento: en el caso de las aplicaciones de computación en la nube, es más sencillo, ya que no necesitan ser instalados en el ordenador de cada usuario y se puede acceder desde diferentes lugares.Ventajas[editar]Las principales ventajas de la computación en la nube son:Integración probada de servicios Red. Por su naturaleza, la tecnología de cloud computing se puede integrar con mucha mayor facilidad y rapidez con el resto de las aplicaciones empresariales (tanto software tradicional como Cloud Computing basado en infraestructuras), ya sean desarrolladas de manera interna o externa.5​Prestación de servicios a nivel mundial. Las infraestructuras de cloud computing proporcionan mayor capacidad de adaptación, recuperación completa de pérdida de datos (con copias de seguridad) y reducción al mínimo de los tiempos de inactividad.Una infraestructura 100% de cloud computing permite también al proveedor de contenidos o servicios en la nube prescindir de instalar cualquier tipo de software, ya que este es provisto por el proveedor de la infraestructura o la plataforma en la nube. Un gran beneficio del cloud computing es la simplicidad y el hecho de que requiera mucha menor inversión para empezar a trabajar.Implementación más rápida y con menos riesgos, ya que se comienza a trabajar más rápido y no es necesaria una gran inversión. Las aplicaciones del cloud computing suelen estar disponibles en cuestión de días u horas en lugar de semanas o meses, incluso con un nivel considerable de personalización o integración.Actualizaciones automáticas que no afectan negativamente a los recursos de TI. Al actualizar a la última versión de las aplicaciones, el usuario se ve obligado a dedicar tiempo y recursos para volver a personalizar e integrar la aplicación. Con el cloud computing no hay que decidir entre actualizar y conservar el trabajo, dado que esas personalizaciones e integraciones se conservan automáticamente durante la actualización.Contribuye al uso eficiente de la energía. En este caso, a la energía requerida para el funcionamiento de la infraestructura. En los datacenters tradicionales, los servidores consumen mucha más energía de la requerida realmente. En cambio, en las nubes, la energía consumida es solo la necesaria, reduciendo notablemente el desperdicio.Desventajas[editar]La centralización de las aplicaciones y el almacenamiento de los datos origina una interdependencia de los proveedores de servicios.La disponibilidad de las aplicaciones está sujeta a la disponibilidad de acceso a Internet.La confiabilidad de los servicios depende de la "salud" tecnológica y financiera de los proveedores de servicios en nube. Empresas emergentes o alianzas entre empresas podrían crear un ambiente propicio para el monopolio y el crecimiento exagerado en los servicios.6​La disponibilidad de servicios altamente especializados podría tardar meses o incluso años para que sean factibles de ser desplegados en la red.La madurez funcional de las aplicaciones hace que continuamente estén modificando sus interfaces, por lo cual la curva de aprendizaje en empresas de orientación no tecnológica tenga unas pendientes significativas, así como su consumo automático por aplicaciones.Seguridad. La información de la empresa debe recorrer diferentes nodos para llegar a su destino, cada uno de ellos (y sus canales) son un foco de inseguridad. Si se utilizan protocolos seguros, HTTPS por ejemplo, la velocidad total disminuye debido a la sobrecarga que estos requieren.Escalabilidad a largo plazo. A medida que más usuarios empiecen a compartir la infraestructura de la nube, la sobrecarga en los servidores de los proveedores aumentará, si la empresa no posee un esquema de crecimiento óptimo puede llevar a degradaciones en el servicio o altos niveles de jitter.Servicios ofrecidos[editar]Software como servicio[editar]El software como servicio (en inglés software as a service, SaaS) se encuentra en la capa más alta y caracteriza una aplicación completa ofrecida como un servicio, por-demanda, vía multitenencia —que significa una sola instancia del software que corre en la infraestructura del proveedor y sirve a múltiples organizaciones de clientes—. Las aplicaciones que suministran este modelo de servicio son accesibles a través de un navegador web —o de cualquier aplicación diseñada para tal efecto— y el usuario no tiene control sobre ellas, aunque en algunos casos se le permite realizar algunas configuraciones. Esto le elimina la necesidad al cliente de instalar la aplicación en sus propios computadores, evitando asumir los costos de soporte y el mantenimiento de hardware y software.Plataforma como servicio[editar]La capa del medio, que es la plataforma como servicio (en inglés platform as a service, PaaS), es la encapsulación de una abstracción de un ambiente de desarrollo y el empaquetamiento de una serie de módulos o complementos que proporcionan, normalmente, una funcionalidad horizontal (persistencia de datos, autenticación, mensajería, etc.). De esta forma, un arquetipo de plataforma como servicio podría consistir en un entorno conteniendo una pila básica de sistemas, componentes o APIs preconfiguradas y listas para integrarse sobre una tecnología concreta de desarrollo (por ejemplo, un sistema Linux, un servidor web, y un ambiente de programación como Perl o Ruby). Las ofertas de PaaS pueden dar servicio a todas las fases del ciclo de desarrollo y pruebas del software, o pueden estar especializadas en cualquier área en particular, tal como la administración del contenido.Ejemplos comerciales son Google App Engine, que sirve aplicaciones de la infraestructura Google; Microsoft Azure, una plataforma en la nube que permite el desarrollo y ejecución de aplicaciones codificadas en varios lenguajes y tecnologías como .NET, Java y PHP o la Plataforma G, desarrollada en Perl. Servicios PaaS como estos permiten gran flexibilidad, pero puede ser restringida por las capacidades disponibles a través del proveedor.En este modelo de servicio al usuario se le ofrece la plataforma de desarrollo y las herramientas de programación por lo que puede desarrollar aplicaciones propias y controlar la aplicación, pero no controla la infraestructura.Ventajas y desventajas[editar]Las ventajas de los PaaS son que permite niveles más altos de programación con una complejidad extremadamente reducida; el desarrollo general de la aplicación puede ser más eficaz, ya que se tiene una infraestructura built-in; y el mantenimiento y mejora de la aplicación es más sencillo7​ También puede ser útil en situaciones en las que varios desarrolladores están trabajando en un mismo proyecto y que implican a partes que no están ubicadas cerca unas de otras.8​Una desventaja de PaaS es que es posible que los desarrolladores no pueden utilizar todas las herramientas convencionales (bases de datos relacionales, con joins irrestrictos, por ejemplo). Otra posible desventaja es estar cerrado en una cierta plataforma. Sin embargo, la mayoría de los PaaS están relativamente libres9​Tipos[editar]Públicos, privados e híbridos[editar]Existen varios tipos de PaaS, incluyendo públicos, privados e híbridos.10​ Paas fue originalmente pensado para las nubes públicas, antes de expandirse a las privadas e híbridas.10​ Los PaaS públicos son derivados de los Software como servicio (SaaS) y está situado entre SaaS e infraestructura como servicio (IaaS)11​Los PaaS privados son comúnmente descargados e instalados desde una infraestructura local de una empresa, o desde una nube pública. Una vez que el software se instala en una o más máquinas, el PaaS privado organiza la aplicación y los componentes de la base de datos en una sola plataforma para el alojamiento.12​Entre los proveedores de PaaS se encuentran Apprenda, que comenzó en la plataforma Microsoft .NET; OpenShift, de Red Hat y su Cloud Foundry Pivotal.13​ Apprenda y Microsoft eran consideradas las dos únicas PaaS que proveían soporte .NET superior.10​Ahora acompañadas por la anunciada14​ asociación entre Microsoft e IBM15​PaaS híbrido es típicamente un despliegue consistente en una mezcla de despliegues públicos y privados. Un ejemplo aquí es IBM Bluemix16​ que se entrega como una sola plataforma de nube integrada a través de modelos de despliegue público, dedicado y local.Mobile PaaS[editar]Iniciado en 2012, mobile PaaS (mPaaS) proporciona capacidades de desarrollo para diseñadores y desarrolladores de aplicaciones móviles.17​ El Yankee Group identificó a mPaas como uno de sus temas para 2014, nombrando a varios proveedores incluyendo Kinvey, CloudMine, AnyPresence, FeedHenry, FatFractal y Point.io.18​19​PaaS Abierto[editar]PaaS abierto no incluye alojamiento, sino que proporciona software de código abierto que permite a un proveedor PaaS ejecutar aplicaciones en un entorno de código abierto. Por ejemplo, AppScale permite a un usuario desplegar algunas aplicaciones escritas para Google App Engine a sus propios servidores, proporcionando acceso a almacén de datos desde una base de datos SQL o NoSQL estándar. Algunas plataformas abiertas permiten al desarrollador utilizar cualquier lenguaje de programación, base de datos, sistema operativo o servidor para implementar sus aplicaciones.20​21​PaaS para el Desarrollo Rápido[editar]En 2014, Forrester Research definió Plataformas empresariales públicas para desarrolladores rápidos como una tendencia emergente, nombrando a varios proveedores incluyendo a Mendix, Salesforce.com, OutSystems y Acquia Acquia.22​Tipos de Sistemas[editar]PaaS se encuentra en los siguientes tipos de sistemas:Instalaciones de desarrollo complementarioEstas instalaciones permiten la personalización de aplicaciones SaaS existentes, a menudo requieren que los desarrolladores de PaaS y sus usuarios compren suscripciones a la aplicación SaaS complementaria.23​Entornos independientesLos entornos PaaS independientes no incluyen dependencias técnicas, de licencias o financieras de aplicaciones o servicios web específicos de SaaS, y están diseñados para proporcionar un entorno de desarrollo generalizado.9​Entornos de únicamente entrega de aplicacionesLos PaaS de únicamente entrega generalmente se enfocan en servicios de hosting, tales como seguridad y escalabilidad bajo demanda. El servicio no incluye capacidades de desarrollo, depuración y prueba, aunque pueden ser suministrados sin conexión (a través de un complemento de Eclipse, por ejemplo).23​Infraestructura como servicio[editar]La infraestructura como servicio (infrastructure as a service, IaaS) —también llamada en algunos casos hardware as a service, HaaS)—24​ se encuentra en la capa inferior y es un medio de entregar almacenamiento básico y capacidades de cómputo como servicios estandarizados en la red. Servidores, sistemas de almacenamiento, conexiones, enrutadores, y otros sistemas se concentran (por ejemplo a través de la tecnología de virtualización) para manejar tipos específicos de cargas de trabajo —desde procesamiento en lotes (“batch”) hasta aumento de servidor/almacenamiento durante las cargas pico—. El ejemplo comercial mejor conocido es Amazon Web Services, cuyos servicios EC2 y S3 ofrecen cómputo y servicios de almacenamiento esenciales (respectivamente). Otro ejemplo es Joyent, cuyo producto principal es una línea de servidores virtualizados, que proveen una infraestructura en demanda altamente escalable para manejar sitios web, incluidas aplicaciones web complejas escritas en Python, Ruby, PHP y Java.Tipos de nubes[editar] Tipos de computación en la nubeUna nube pública es una nube computacional mantenida y gestionada por terceras personas no vinculadas con la organización. En este tipo de nubes tanto los datos como los procesos de varios clientes se mezclan en los servidores, sistemas de almacenamiento y otras infraestructuras de la nube. Los usuarios finales de la nube no conocen qué trabajos de otros clientes pueden estar corriendo en el mismo servidor, red, sistemas de almacenamiento, etc.25​ Aplicaciones, almacenamiento y otros recursos están disponibles al público a través del proveedor de servicios, que es propietario de toda la infraestructura en sus centros de datos; el acceso a los servicios solo se ofrece de manera remota, normalmente a través de internet.Dentro de estas nubes podemos encontrar englobadas las Cloud Privado virtual, 26​ consideradas como nubes de dominio público pero que mejoran la seguridad de los datos. Estos datos se encriptan a través de la implantación de una VPN. Algunas grandes empresas como Amazon ya permiten aprovisionar una sección de su AWS con esta posibilidad VPC.Las nubes privadas son una buena opción para las compañías que necesitan alta protección de datos y ediciones a nivel de servicio. Las nubes privadas están en una infraestructura bajo demanda, gestionada para un solo cliente que controla qué aplicaciones debe ejecutarse y dónde. Son propietarios del servidor, red, y disco y pueden decidir qué usuarios están autorizados a utilizar la infraestructura. Al administrar internamente estos servicios, las empresas tienen la ventaja de mantener la privacidad de su información y permitir unificar el acceso a las aplicaciones corporativas de sus usuarios.Las nubes híbridas combinan los modelos de nubes públicas y privadas. Un usuario es propietario de unas partes y comparte otras, aunque de una manera controlada. Las nubes híbridas ofrecen la promesa del escalado, aprovisionada externamente, a demanda, pero añaden la complejidad de determinar cómo distribuir las aplicaciones a través de estos ambientes diferentes. Las empresas pueden sentir cierta atracción por la promesa de una nube híbrida, pero esta opción, al menos inicialmente, estará probablemente reservada a aplicaciones simples sin condicionantes, que no requieran de ninguna sincronización o necesiten bases de datos complejas. Se unen mediante la tecnología, pues permiten enviar datos o aplicaciones entre ellas. Un ejemplo son los sistemas de correo electrónico empresarial.27​Nube comunitaria. De acuerdo con Joyanes Aguilar en 2012,28​ el Instituto Nacional de Estándares y Tecnología (NITS, por sus siglas en inglés) define este modelo como aquel que se organiza con la finalidad de servir a una función o propósito común (seguridad, política…), las cuales son administradas por las organizaciones constituyentes o terceras partes.Comparaciones[editar]La computación en la nube usualmente se confunde con la computación en grid (red) (una forma de computación distribuida por la que "un súper computador virtual" está compuesto de un conjunto o clúster enlazado de ordenadores débilmente acoplados, que funcionan en concierto para realizar tareas muy grandes).29​Controversia[editar]Dado que la computación en nube no permite a los usuarios poseer físicamente los dispositivos de almacenamiento de sus datos (con la excepción de la posibilidad de copiar los datos a un dispositivo de almacenamiento externo, como una unidad flash USB o un disco duro), deja la responsabilidad del almacenamiento de datos y su control en manos del proveedor.La computación en nube ha sido criticada por limitar la libertad de los usuarios y hacerlos dependientes del proveedor de servicios.30​ Algunos críticos afirman que solo es posible usar las aplicaciones y servicios que el proveedor esté dispuesto a ofrecer. Así, The Times compara la computación en nube con los sistemas centralizados de los años 50 y 60, en los que los usuarios se conectaban a través de terminales "gregarios" con ordenadores centrales. Generalmente, los usuarios no tenían libertad para instalar nuevas aplicaciones, y necesitaban la aprobación de administradores para desempeñar determinadas tareas. En suma, se limitaba tanto la libertad como la creatividad. El Times argumenta que la computación en nube es un retorno a esa época y numerosos expertos respaldan la teoría.31​De forma similar, Richard Stallman, fundador de la Free Software Foundation, cree que la computación en nube pone en peligro las libertades de los usuarios, porque estos dejan su privacidad y datos personales en manos de terceros. Ha afirmado que la computación en nube es "simplemente una trampa destinada a obligar a más gente a adquirir sistemas propietarios, bloqueados, que les costarán cada vez más conforme pase el

a

EL TELEVISOR

r

TelevisorEl televisor,1​ televisión2​ o tele3​ es un aparato electrónico destinado a la recepción y reproducción de señales de televisión. Usualmente consta de una pantalla y mandos o controles. La palabra viene del griego τῆλε (tēle, ‘lejos’), y el latín visōr (agente de videre, ‘ver’).El televisor es la parte final del sistema de televisión, el cual comienza con la captación de las imágenes y sonidos en origen, y su emisión y difusión por diferentes medios. El televisor se ha convertido en un aparato electrodoméstico habitual, cotidiano y normal con amplia presencia en los hogares de todo el mundo. El primer televisor comercial fue creado el 26 de enero de 1926 por el escocés John Logie Baird. WEGA KDL-S19A10. Televisor LCD de la compañía Sony.Índice  [ocultar] 1Primeros televisores del mundo2Áreas críticas en la representación de una imagen2.1Reproducción de negro verdadero2.2Reproducción del color en niveles bajos de luz2.3Anchura del rango dinámico2.4Rápido tiempo de respuesta3Tipos3.1Resolución3.2Controles4Televisión en el espacio5Véase también6Referencias7Enlaces externosPrimeros televisores del mundo[editar]Los primeros televisores que se pueden considerar comerciales fueron de tipo mecánico y se basaban en un disco giratorio, el disco de Nipkow (patentado por el ingeniero alemán Paul Nipkow en 1884), que contenía una serie de agujeros dispuestos en espiral y que permitían realizar una exploración "línea por línea" a una imagen fuertemente iluminada. La resolución de los primeros sistemas mecánicos era de 30 líneas a 12 cuadros pero fueron posteriormente mejoradas hasta alcanzar cientos de líneas de resolución e inclusive incluir color.La televisión mecánica fue comercializada desde 1928 hasta 1934 en el Reino Unido, Estados Unidos y la URSS. Los primeros televisores comerciales vendidos por Baird en el Reino Unido en 1928 fueron radios que venían con un aditamento para televisión consistente en un tubo de Neón detrás de un disco de Nipkow y producían una imagen del tamaño de una estampilla, ampliada al doble por una lente. El "televisor" Baird estaba también disponible sin la radio. El televisor vendido entre 1930 y 1933 es considerado el primer televisor comercial, alcanzando varios miles de unidades vendidas.El sistema mecánico fue pronto desplazado por el uso del CRT (tubo de rayos catódicos) como elemento generador de imágenes, que permitía alcanzar mejores resoluciones y velocidades de exploración. Además, al no tener elementos mecánicos, el tiempo de vida útil era mucho mayor.El primer televisor totalmente electrónico (sin elementos mecánicos para generación de la imagen) con tubo de rayos catódicos fue manufacturado por Telefunken en Alemania en 1934, seguido de otros fabricantes en Francia (1936), el Reino Unido (1936) y Estados Unidos (1938).Se estima que antes de la II Guerra Mundial se fabricaron en el Reino Unido unos 19 000 aparatos y en Alemania unos 1600.Ya en las épocas tempranas del CRT se empezaron a idear sistemas de transmisión en color, pero no fue hasta el desarrollo de los tubos de rayos catódicos con tres cañones, que se empezaron a fabricar masivamente televisores en color totalmente electrónicos.En la década de 1970, los televisores en color fueron ampliamente difundidos y empezaron a comercializarse en los países desarrollados. La premisa de compatibilidad con los sistemas monocromáticos permitió que ambos tipos de televisores convivieran de forma armoniosa hasta nuestros días.La electrónica de los televisores ha ido evolucionando conforme avanzaba la electrónica en general. Los primeros televisores usaban tubos al vacío y luego transistores. Más recientemente se empezaron a usar circuitos integrados, desarrollándose algunos circuitos ex proceso para las funciones específicas del televisor. A finales del siglo XX comenzaron a desarrollarse pantallas de reproducción de imagen que no usaban el TRC. En la primera década del siglo XXI el tubo desapareció, dando paso a televisores con pantallas planas de diferentes tecnologías, que aún no logrando una calidad de imagen similar a la lograda por el TRC, permitían hacer unos aparatos de volumen mucho menor, casi sin fondo, y de unas líneas estéticas muy atractivas que fueron copando el mercado mientras los fabricantes dejaban de producir televisores con tubo de imagen.El tubo de imagen fue sustituido por pantallas de tecnología de plasma, LCD, LCD retroiluminado con led y OLED, a la par que los sistemas de transmisión se cambiaban a sistemas digitales, bien mediante la distribución por cable, satélite o la distribución terrestre mediante la TDT.A finales de la primera década del siglo XXI, con el desarrollo de Internet aparecen los televisores conectables y se comienza a hablar de la «televisión híbrida», que comparte la recepción convencional con el acceso a la red de redes para visualizar contenidos audiovisuales o de cualquier otro tipo abriendo nuevas áreas de servicio.Se han desarrollado también sistemas de representación en 3D (tres dimensiones) y mejoras en el sonido. Los televisores llegan a poder mostrar varias imágenes o contenidos diferentes a la vez en sus pantallas y a poder realizar grabaciones de contenidos sin necesidad de elementos externos.Áreas críticas en la representación de una imagen[editar]La representación de una imagen en cualquiera de las tecnologías usadas para la pantalla de los televisores y monitores tiene cuatro áreas críticas a salvar, donde los resultados obtenidos son relevantes para la calidad final lograda. Estas áreas son:Reproducción de negro verdadero[editar]La dificultad de la reproducción del negro verdadero es una de las áreas más comprometidas en la representación de una imagen en una pantalla de televisión. Los bajos niveles de luminancia que generan los negros, o grises muy oscuros, son difíciles de conseguir debido la utilización de retroiluminación o niveles de cebado de los plasmas. Las áreas oscuras de las imágenes representadas carecen de rango en los negros, quedando estos anulados (convertidos en grises) entre unos niveles y otros, dando lugar a artificios y ruido.Los TRC tienen un nivel mínimo de excitación de los luninofósforos que proporcionan un negro aceptable. No ocurre lo mismo en los plasmas y menos aún en las pantallas LCD, que precisan retroiluminación, lo que hace que no se logre nunca tener la pantalla oscura. La tecnología OLED, al ser cada píxel un emisor individual, puede reproducir una gama de negros muy reales, ya que se logra apagar totalmente el emisor.Reproducción del color en niveles bajos de luz[editar]La reproducción del color en imágenes con áreas de muy poca luminancia es uno de los puntos más difíciles para la reproducción de una imagen. En un sistema de TV el color surge de la mezcla de tres luces correspondientes a tres colores diferentes (denominados "colores primarios" : rojo, verde y azul). Los escasos niveles de luminancia hacen que esa mezcla no pueda ser correcta al caer en las zonas no lineales de los emisores de luz.Este fenómeno, muy relacionado con la reproducción real de los negros, precisa de sistemas de reproducción muy lineales en el extremo de baja luminancia. Las tecnologías de plasma y LCD no tienen estas características por su propia base tecnológica, que en el TRC se podían encontrar con eficiencia suficiente y que la tecnología OLED, por el mismo motivo que el expuesto anteriormente, cubre de una manera eficiente.Anchura del rango dinámico[editar]Para que una imagen pueda verse clara y nítida se deben poder reproducir todos los niveles de luz contenidos en la misma. Niveles de luz que en la mezcla de los tres colores básicos dan toda la gama de colores que se deben representar.Desde el apagado absoluto que nos proporciona un negro real hasta el encendido a pleno brillo para un blanco, tenemos toda la gama de niveles a reproducir. La linealidad, muy crítica en los extremos, de los elementos que las diferentes tecnologías utilizan para la representación de la imagen es la que da cuerpo al rango dinámico. Los tubos de rayos catódicos mantienen una curva característica, denominada ganma, que se debía de compensar (se hace en la emisora) para lograr una respuesta lineal óptima.Los sistemas de plasma y LCD tienen una respuesta no lineal y con una relación de contraste muy pobre lo que hace que su ancho dinámico sea pequeño. La tecnología OLED logra un buen resultado.Rápido tiempo de respuesta[editar]La televisión es un sistema de transmisión de imágenes en movimiento. El tiempo de respuesta de las pantallas de reproducción de las imágenes es fundamental para la fidelidad de lo reproducido.Los cambios rápidos en las imágenes deben ser realizados de tal forma que no supongan retardos y distorsiones o perdida de resolución. Para ello los tiempos de persistencia y de histéresis de los elementos generadores de la imagen son importantísimos. Los tiempos de activación y desactivación de los elementos lumínicos son fundamentales para una correcta representación de la imagen en movimiento. Estos tiempos no solo dependen de la tecnología de la pantalla sino también del procesado de la señal. El concepto de tiempo de cambio entre dos niveles de grises, en inglés grey-to-grey switching speed, es el que determina este parámentro.4​Tipos[editar] OT-1471 Belweder, Polonia, 1957.1:interruptor de encendido y volumen. 2:brillo. 3:tono.4:sincronía vertical. 5:sincronía horizontal.6:contraste. 7:sintonización de canales.8:conmutador de canalesGracias a los avances en la tecnología de pantallas, hay ahora varias clases en los televisores modernos:Tubo de rayos catódicos o CRT: Las pantallas más comunes son tubos de visión directa con la que se logran hasta 37 pulgadas de diagonal. Hasta el año 2007, eran todavía las menos costosas, y se trataba de una tecnología madura que puede brindar una gran calidad de imagen. Dado que no tienen una resolución fija, aunque sí una resolución mínima, dada por la separación entre puntos, pueden mostrar fuentes de distintas resoluciones con la mejor calidad de imagen posible. La frecuencia de cuadro de un televisor NTSC es de 29,97 Hz, y de 25 Hz en el caso de televisores de la norma PAL. La resolución vertical visible de los televisores NTSC es de 480 líneas, y la de los PAL de 576 líneas. Los tubos de rayos catódicos eran bastante voluminosos y pesados; en la actualidad están siendo reemplazados por los formatos Plasma, LCD y más recientemente LED.Proyección: Son televisores de gran pantalla, hasta 100 pulgadas de diagonal o más. Se usan tres tipos de sistemas de proyección: con TRC, con LCD, y DLP (con chip de microespejos). Los televisores de retroproyección existen desde la década del 70, pero en aquella época no tenían la definición de un televisor común de rayos catódicos. Los modelos actuales han mejorado mucho, y ofrecen gran tamaño a un precio conveniente. Las pantallas de proyección no dan buen resultado a la luz de día o en habitaciones muy iluminadas, por lo que son más aptas para zonas oscurecidas.Pantalla de cristal líquido, de plasma u OLED: Los progresos actuales permiten fabricar televisores de pantalla plana que utilizan tecnología de cristal líquido de matriz activa (LCD), o plasma. Están preparados para la alta definición con resoluciones desde 1280×720 píxeles hasta los 3840x2160 píxeles. Estos televisores pueden tener sólo unos milímetros de espesor en caso de las matrices OLED, y pueden colgarse en una pared como un cuadro o ser puestos sobre una base. Algunos modelos también pueden utilizarse como monitores de computadoras.Matriz de LED se ha convertido en una de las opciones para vídeo en exteriores y en estadios, desde el advenimiento de diodos electroluminiscentes ultraluminosos y sus circuitos respectivos. Los ledes permiten crear actualmente pantallas escalables ultragrandes que otras tecnologías existentes no pueden igualar. Además de tener un bajo consumo. Recientemente se ha tomado la iniciativa de aplicar esta tecnología a los televisores domésticos. Estos adquieren unas características diferentes a las de otros tipos de pantalla. El menor consumo respecto a las pantallas LCD, mayor durabilidad, menor grosor de la misma, así como mayor contraste son ejemplos de estas características. La empresa pionera en este ámbito comercial fue la surcoreana Samsung.Resolución[editar]La resolución en píxeles es la cantidad de puntos individuales llamados píxeles en una pantalla dada. Una resolución típica de 720x480 significa que la pantalla del televisor tiene 720 píxeles horizontales y 480 píxeles en el eje vertical. La resolución afecta a la nitidez de la imagen. Cuanto mayor es la resolución de una pantalla, mayor es su nitidez. La primera resolución tenía 48 líneas y cada una de las fábricas usaba sistemas diferentes. La estandarización de estos sistemas comienza en julio de 1941 cuando se logró el sistema NTSC, válido para todos los estados de Estados Unidos, de 325 líneas. Europa logró un sistema de 625 líneas al término de la guerra, Francia poseía uno propio de 819 líneas e Inglaterra mantuvo el suyo de 405 líneas. Posteriormente el sistema NTSC fue mejorado.Controles[editar]Relación de contraste es una medición del intervalo entre los puntos más claros y oscuros de la pantalla. Cuanto más alto el contraste, mejor se ve la imagen en cuanto a su riqueza, profundidad y detalle en las sombras. El control de contraste de un televisor controla en realidad la intensidad de la imagen o el brillo.5​El brillo de una imagen mide la luminosidad general de la pantalla. Se mide en {\displaystyle cd/m^{2}} equivalente a la cantidad de candelas requeridas para formar la imagen. El control de brillo desplaza el "punto de negro" o nivel de sombras, lo que afecta el rango de contraste o gamma de la imagen.5​Durante los años inmediatamente posteriores a la Segunda Guerra Mundial se realizaron diferentes experimentos con varios sistemas de televisión en algunos países de Europa, incluida Francia y los Países Bajos, pero fue la Unión Soviética, que comenzó sus emisiones regulares en Moscú en 1948, el primer país del continente en poner en funcionamiento este servicio público. Cerca del 98% de los hogares en la URSS (3,2 personas por receptor) y en Francia (2,5) posee televisor, siendo el porcentaje de 94 en Italia (3,9) y 93 en los hogares de Alemania actualmente parte de la reunificada República Federal de Alemania (2,7).Televisión en el espacio[editar] Logo de NASA TV.Las cámaras de televisión a bordo de las naves espaciales estadounidenses transmiten a la Tierra información espacial hasta el momento inaccesible. Las naves espaciales Mariner, lanzadas por Estados Unidos entre 1965 y 1972, envió miles de fotografías de Marte. Las series Ranger y Surveyor retransmitieron miles de fotografías de la superficie lunar para su análisis y elaboración científica antes del alunizaje tripulado en julio de 1969, al tiempo que millones de personas en todo el mundo pudieron contemplar la emisión en color directamente desde la superficie lunar.Desde 1960 se han venido utilizando también ampliamente las cámaras de televisión en los satélites meteorológicos en órbita. Las cámaras vidicón preparadas en tierra registran imágenes de las nubes y condiciones meteorológicas durante el día, mientras que las cámaras de infrarrojos captan las imágenes nocturnas. Las imágenes enviadas por los satélites no sólo tienen como utilidad predecir el tiempo sino para comprender los sistemas meteorológicos globales. Se han utilizado cámaras vidicón de alta resolución a bordo de los Satélites para la Tecnología de los Recursos Terrestres conocidos también como ERTS para realizar estudios de cosechas, así como de recursos minerales y marinos.Véase también[editar]Google ChromecastRadiotransmisorTeléfonoTelevisiónTelevisión digitalTelevisión de alta definiciónTelevisión 3DTelevisión inteligentePantalla de cristal líquidoPantalla de plasmaVisualizadorReferencias[editar]Volver arriba↑ Real Academia Española y Asociación de Academias de la Lengua Española (2014). «televisor». Diccionario de la lengua española (23.ª edición). Madrid: Espasa. ISBN 978-84-670-4189-7.Volver arriba↑ Real Academia Española y Asociación de Academias de la Lengua Española (2014). «televisión». Diccionario de la lengua española (23.ª edición). Madrid: Espasa. ISBN 978-84-670-4189-7.Volver arriba↑ Real Academia Española y Asociación de Academias de la Lengua Española (2014). «tele». Diccionario de la lengua española (23.ª edición). Madrid: Espasa. ISBN 978-84-670-4189-7.Volver arriba↑ Sony Trimaster EL↑ Saltar a:a b John Watkinson, Convergence in Broadcast and Communications Media: The Fundamentals of Audio, Video, Data, Focal Press, 2001, ISBN 0-240-51509-9

a

CONSOLAS DE JUEGO

r

VideoconsolaUna videoconsola o consola de videojuegos es un sistema electrónico de entretenimiento para el hogar que ejecuta juegos electrónicos (videojuegos) contenidos en cartuchos, discos ópticos, discos magnéticos, tarjetas de memoria o cualquier dispositivo de almacenamiento.Índice  [ocultar] 1Visión general2Historia2.1Primera generación2.2Segunda generación2.3Tercera generación2.4Cuarta generación2.5Quinta generación2.6Sexta generación2.7Séptima generación2.8Octava generación3Visión detallada3.1Consolas de sobremesa3.2Consolas portátiles3.3Consolas híbridas3.4Ventas3.4.1Ventas globales3.4.2Ventas de Japón3.4.3Ventas de Norteamérica3.4.4Ventas de Reino Unido3.4.5Ventas de España4Notas5Referencias6Enlaces externosVisión general[editar]Los primeros sistemas de videoconsolas fueron diseñados únicamente para jugar videojuegos pero a partir de la quinta generación de videoconsolas han sido incorporadas características importantes de multimedia, internet, tiendas virtuales, servicio en línea como: Nintendo Network, PlayStation Network, y Xbox Live.Una videoconsola es un pequeño sistema electrónico que está diseñado para ejecutar juegos desarrollados en un computador personal o servidor. Al igual que los ordenadores personales, pueden adoptar diferentes formas y tamaños; de este modo, pueden ser de sobremesa, es decir, requieren ser conectadas a un televisorpara la visualización del videojuego, y a la red eléctrica para su alimentación, en la cual suelen consumir 12 voltios, o bien el dispositivo electrónico videoconsola portátil, que cuenta con una pantalla de visualización integrada y una fuente de alimentación propia (baterías o pilas).Los videojuegos pueden presentarse en forma de cartuchos de plástico que protegen una placa con chips en los que está almacenado el software, o también en disquete, tarjeta de memorias, disco compactos (como en PlayStation), discos GD-ROM (en el caso de Sega Dreamcast), discos "GOD" (en el caso de Nintendo GameCube), DVD (como en PlayStation 2, Wii, Xbox, Xbox 360), o Blu-ray (en el caso de la PlayStation 3, Xbox One, PlayStation 4). Estos dos últimos formatos ópticos de almacenamiento son los que se han impuesto como estándar en las videoconsolas de séptima generación. El formato cartucho se utilizaba básicamente para videoconsolas portátiles o en generaciones pasadas de videojuegos, siendo las últimas más destacables la Nintendo 64 y Game Boy Advance. Hoy en día, PlayStation Portable usa UMD, formato propietario de Sony y Nintendo DS utiliza dispositivos portátiles de tarjetas SD.Historia[editar]En la Industria de los videojuegos, las videoconsolas han sido clasificadas en distintas generaciones. Esta clasificación la determina su tiempo de lanzamiento y la tecnología existente en ese momento. Las empresas fabricantes lanzan una nueva consola en determinado tiempo (que puede variar entre 5 o 6 años). Por otro lado, algunas generaciones están señaladas por un número determinado de bits, los cuales determinan el ancho de bus del procesador, (de la segunda generación hasta la sexta generación).Las primeras videoconsolas que aparecieron en el mercado llevaban procesador de 8 bits. A partir de la segunda generación algunos fabricantes ya presentaban equipos de 16 bits. A partir de esta cantidad, se fueron realizando las siguientes generaciones de consolas. Una consola de generación superior no tiene que poseer necesariamente un procesador de ancho de bus de datos de más bits, al contrario que la creencia popular que piensa que en cada generación se dobla el número de la anterior, ya que la potencia de un procesador está determinada además de por su ancho de bus por su estructura y velocidad.En las videoconsolas de reciente generación ya no sólo depende la potencia de la unidad CPU sino también del procesador gráfico GPU que es el procesador encargado del manejo de gráficos en la consola. Cada componente tiene una determinada cantidad de bits y velocidad.Primera generación[editar]Artículo principal: Videoconsolas de primera generaciónSi bien los primeros juegos de computadora aparecieron en la década de los 1950, éstos utilizaban pantallas vectoriales, no de vídeo analógico. No fue hasta 1972cuando se lanzó la primera videoconsola de sobremesa por la compañía electrónica Magnavox.1​ La Magnavox Odyssey, fue creada por Ralph Baer, considerado como el padre de los videojuegos.2​ La Odyssey tuvo un moderado éxito, sin embargo, con el lanzamiento del juego arcade Pong de Atari, comenzaron a popularizarse los videojuegos, el público comenzó a mostrar interés ante la nueva industria. En el otoño de 1975, la compañía Magnavox, cede ante la popularidad del Pong, se cancela el proyecto Odyssey, ya que el público sólo jugaba al Pong y Hockey en la Odyssey 100.Una posterior actualización de la consola Odyssey 100, la 200, llevaba incorporada una pantalla de puntuación, permitía hasta 4 jugadores, y se vendía junto con un tercer juego: Smash. Casi simultáneamente, la cadena de centros comerciales Sears compró los derechos del sistema Atari Pong y lo introdujeron en el mercado de consumo bajo el nombre de Sears-Telegames. Al igual que en el mercado arcade, el mercado pronto fue inundado por consolas clones de Pong y juegos derivados.Sears Telegames Pongde Atari Coleco Telstar de Coleco Magnavox Odyssey de Magnavox Magnavox Odyssey 200de MagnavoxSegunda generación[editar]Artículo principal: Videoconsolas de segunda generaciónEn esta generación resaltaron Atari 2600, Colecovision, Mattel Intellivision, Atari 5200, SG-1000 y la TV-Game 6. El dominio absoluto fue de Atari, aunque tuvo al menos dos rivales destacables. Colecovision con el doble de colores que la 2600 e Intellivision de Mattel que por primera vez en la historia incluye una CPU de 16 bits. Algunas empresas japonesas como Sega o Nintendo, hacían sus tímidas incursiones a nivel doméstico.Atari 2600 de Atari ColecoVision de Coleco Intellivision de Mattel Atari 5200 de Atari SG-1000 de Sega TV-Game 6 de Nintendo Game & Watch de Nintendo SG-1000 de Sega Color TV Racing 112 de Nintendo Vectrex de Smith Engineering Arcadia 2001 de Arcadia Corporation Video Pinball de Atari Fairchild Channel F de Fairchild Semiconductor Epoch Cassette Visionde EpochTercera generación[editar]Artículo principal: Videoconsolas de tercera generaciónTras la crisis de los videojuegos, el mundo de las consolas prácticamente es un monopolio japonés. En esta generación las consolas como la NES (Nintendo Entertainment System) o Famicom (así se llamaba la NES en Japón) y la Sega Master System tenían 8 Bits. La NES domina prácticamente sola hasta la llegada de Mega Drive en 1988.Famicom de NintendoVersión Japonesa Nintendo Entertainment System de Nintendo Sega Master System de Sega Atari 7800 de Atari Amstrad GX4000 de Amstrad Gameboy de Nintendo SG-1000 Mark III de Sega Atari Lynx de Atari Atari XE Video Game System de AtariCuarta generación[editar]Artículo principal: Videoconsolas de cuarta generaciónEn 1987 NEC y Hudson, ponen la consola PC Engine en Japón o Turbografx en el resto del mundo, que tienen una CPU de 8 bits pero un chip gráfico de 16 bits. En 1988 Sega presenta su consola con una CPU de 16 bits conocida como Sega Genesis en América y Sega Mega Drive en Europa y Asia. En 1990 Nintendo saca su consola de 16bits Super Nintendo y este mismo año, la productora de arcades SNK saca Neo-Geo, la consola más potente de esta generación llamada el Rolls Royce de las consolas por su elevado precio. Esta generación destaca, por los chips gráficos añadidos al cartucho, como el Super FX y SVP y las ampliaciones de hardware de Mega Drive: Mega CD y Sega 32X. Aparecen conceptos como multitarea, multimedia, gráficos vectoriales, etc... Super Nintendo es la consola más vendida con 49 millones de unidades, aunque la más vendida en Europa es Mega Drive.Sega Mega Drive / Sega Genesis de Sega. Super Nintendo / Super Famicom de Nintendo.(versión americana) PC Engine / TurboGrafx-16 de NEC. Neo-Geo de SNK. Sega Mega-CD de Sega Sega Game Gear de Sega Game Boy Pocket de Nintendo TurboGrafx-16 de NEC CD-i de Philips TurboExpress de NEC PC Engine Duo de NEC Watara Supervision de SupervisionQuinta generación[editar]Artículo principal: Videoconsolas de quinta generaciónEn la quinta generación nos encontramos con muchos fabricantes de juegos que presentaron diversos equipos con características parecidas a las de un PC. Estos fabricantes comenzaron a presentar títulos en un entorno 3D, aprovechando la mayor capacidad de hardware de los equipos. A esta generación se la conoce como la "era de los 

a

SISTEMA DE INFORMACION EMPRESARIAL

r

Sistema de Información EmpresarialUn Sistema de Información Empresarial o SIE (en inglés Enterprise Information System, acrónimo EIS) es generalmente cualquier tipo de sistema de computación que es de "clase enterprise". Esto significa normalmente que ofrece alta calidad de servicio, lidia con grandes volúmenes de datos - capaz de soportar cualquier organización grande ("enterprise").Los Sistemas de Información de Empresa suministran una plataforma tecnológica que permiten a las organizaciones integrar y coordinar sus procesos de negocio. Son herramientas y recursos de software que sirven como soporte para el proceso básico de captación, transformación y comunicación de la información dentro de una organización.Ellos suministran un sistema individual que es central para la organización y asegura que la información puede ser compartida a través de todos los niveles funcionales y jerarquías de gestión. Los sistemas Enterprise son indispensables para eliminar el problema de la fragmentación de la información causada por la existencia de múltiples sistemas de información en una organización, creando una estructura de datos estándar.Un Sistema de Información de Empresa normalmente será manejado por un Administrador de Sistemas profesional y será desplegado en servidores dedicados. Esto generalmente ofrece conectividad de red y suministra servicios que soporten las operaciones realizadas por la empresa.Sistemas Expertos[editar]Se basan en la Inteligencia Artificial, en las empresas se utilizan para ayudar a los expertos humanos en el procesamiento de altos volúmenes de datos, también se utilizan como conservación y posterior utilización del conocimiento cuando los colaboradores se retiran de las empresas y como maestros en el caso de requerirse capacitar a personal que conoce del tema pero que no es experto.1​Véase también[editar]Sistemas de información gerencial avocadoReferencias[editar]Volver arriba↑ Claver Cortes,, Dr. D. Enrique (Enero-Marzo 1995). «SISTEMAS EXPERTOS: UN CONCEPTO CERCANO A LA EMPRESA». Dirección y Organización 3. Consultado el 03-04-2018.Categoría: Ciencias de la información

a

PROBLEMAS ASOCIADOS A LASA TIC

r

Diez problemas de las TICs que probablemente no sabe que tiene20 Junio 2008Página 1 de 4 de Diez problemas de las TICs que probablemente no sabe que tieneEn el mundo de las TICs, como en cualquier otro, son varios los problemas a los que los administradores se deben enfrentar, aunque los peores son aquellos que no son evidentes. eWEEK Labs ha identificado diez ‘situaciones a evitar’ que causan importantes pérdidas monetarias y que afectan a la productividad. Este informe le ofrece algunos consejos sobre cómo prevenirlas.Su WLAN ‘cotillea’Aunque haya invertido mucho dinero y tiempo asegurando su WLAN (LAN inalámbrico), segregando datos, voz y tráfico, e implementando certificaciones de seguridad WPA2, la red no es infalible y puede que exista una fuga de información en alguna parte que esté proporcionando datos sobre los dispositivos y servicios de su infraestructura a quien no debe.Según un estudio de AirDefense, fabricante de sistemas contra la intrusión inalámbrica, muchas WLANs exhiben fugas de información desencriptada, como la CDP (protección continua de datos), el VRRP (protocolo redundante de routers virtuales), y el NetBIOS. Esta información se puede utilizar para identificar los distintos tipos de equipos conectados a una LAN corporativa, así como los nombres y direcciones de las máquinas Windows, algo que, potencialmente, podría aprovechar un atacante para introducir protocolos maliciosos en la red.10 problemas TICRedes inalámbricas con medidas anti-intrusivas, como las de AirDefense, son capaces de detectar la fuga de información siempre que estén correctamente configuradas. Sin embargo, también existen varias herramientas de análisis de red que los administradores pueden usar.Laptop Analyzer de AirMagnet y OmniPeek de WildPacket son solamente dos opciones aunque también existen herramientas gratuitas. Por otra parte, nunca se debe descartar la vigilancia humana. El estudio de AirDefense del rastreo de puntos de acceso por la zona financiera de San Francisco fue realizado por un solo hombre, paseándose por la zona con un portátil y la herramienta BackTrack de códigos abiertos (www.remote-exploit.org/backtrack.html).Después de detectar este tipo de tráfico sospechoso, es cuestión de analizar la documentación o de ponerse en contacto con su proveedor de WLAN para que le proporcione una configuración que impida este tipo de fugas en su red inalámbrica.Los usuarios acceden a servicios externosEl rápido crecimiento de las tecnologías Web 2.0 ha puesto herramientas potentes, gratuitas y fáciles de usar al alcance de todos, incluyendo los empleados que utilizan estos servicios para facilitar y simplificar las tareas corporativas.Como ejemplo, hay empleados que colaboran en la creación de un informe utilizando Google Spreadsheets, se comunican con proveedores a través del Messenger o, incluso, utilizan herramientas de gestión SAAS (software por pago) en proyectos críticos. En la mayoría de los casos, estas herramientas se utilizan sin la supervisión del personal de TI.Sin embargo, este tipo de situación puede causar problemas para todos. Los empleados que descubren problemas de acceso a los servicios esenciales se pueden encontrar con que el personal de TI no dispone de la preparación adecuada para proporcionarles ayuda. Por otra parte, el personal de TI se enfrenta ahora a la posibilidad de una infección de malware que entre por estos puntos.Así, los responsables de Tecnología deben asegurar que los servicios externos forman parte de cualquier discusión sobre las aplicaciones necesitadas por los departamentos. Las encuestas pueden ayudar a la hora de darnos una pista sobre los servicios externos utilizados así como las herramientas que proporcionan información sobre las estadísticas de uso.Servicios externos y aplicaciones SAAS se están popularizando y lo más probable es que este tipo de servicio ya se utilice en su empresa. Si no sabe qué tipo de herramientas se está utilizando, por quién y cómo, no tiene manera de controlarlo.Los datos sensibles desencriptados están siendo transmitidosSu negocio dispone de lo que usted considera una configuración de red estándar y segura. Un cortafuegos protege todo el tráfico interno. Servidores Web y otros sistemas que requieren un acceso directo a Internet disponen de túneles encriptados a las fuentes de datos dentro del cortafuegos. Una VPN permite el acceso externo a partners y empleados.Más allá de esta configuración tradicional, muchas empresas podrían beneficiarse con otras opciones de encriptación.Por ejemplo, el hecho de que una red se encuentre dentro del cortafuegos no significa que ésta esté protegida. Incluso aquellos empleados con un poco de destreza tecnológica tienen a su alcance herramientas que permiten escanear las redes para rastrear información sensible, desde datos empresariales a las nóminas del personal.Por otra parte, la información que se encuentra fuera del cortafuegos no carece de importancia. Aunque muchas aplicaciones SAAS corporativas ofrecen conexiones Web seguras, ésta no suele ser la norma. A menudo, la conexión segura se utiliza sólo durante el ‘login’, y una vez conectado, la conexión se hace por abierto.Los administradores de redes deben pensar como hackers y utilizar las mismas herramientas de rastreo que estos para identificar todos los datos, moviéndose por la red. Si pueden ver esta información, cualquier otro usuario también la puede ver. Una vez identificados estos datos descubiertos, las conexiones se pueden robustecer con seguridad. Por último, cualquier contrato SAAS que especifica la transmisión de datos sensibles deberá determinar y garantizar una conexión segura durante toda la sesión.

a

VENTAJAS Y DESVENTAJAS DE LA TIC

r

Ventajas y desventajas en las TICVentajas y desventajas en las TICVentajas:    Algunas ventajas que podemos mencionar son las siguientes:-  Brindar grandes beneficios y adelantos en salud y educación.-  Potenciar a las personas y actores sociales, ONG, etc., a través de redes de apoyo e intercambio y lista de discusión.-  Apoyar a las PYME de las personas empresarias locales para presentar y vender sus productos a través de la Internet.-   Permitir el aprendizaje interactivo y la educación a distancia.- Impartir nuevos conocimientos para la empleabilidad que requieren muchas competencias (integración, trabajo en equipo, motivación, disciplina, etc.).-   Ofrecer nuevas formas de trabajo, como tele trabajo.-  Dar acceso al flujo de conocimientos e información para empoderar y mejorar las vidas de las personas.-   Facilidades.-   Exactitud.-   Menores riesgos.-   Menores costos.Desventajas:    Los beneficios de esta revolución no están distribuidos de manera equitativa; junto con el crecimiento de la red Internet ha surgido un nuevo tipo de pobreza que separa los países en desarrollo de la información, dividiendo los educandos de los analfabetos, los ricos de los pobres, los jóvenes de los viejos, los habitantes urbanos de los rurales, diferenciando en todo momento a las mujeres de los varones.    Otras desventajas que se pueden observar en la utilización de las tecnologías de información y comunicación son:Falta de privacidad.Aislamiento.Fraude.Merma los puestos de trabajo.

a