Metodos Numericos Inv.docx

  • Uploaded by: Luis Angel Martinez Luis
  • 0
  • 0
  • April 2020
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View Metodos Numericos Inv.docx as PDF for free.

More details

  • Words: 3,690
  • Pages: 13
S.E.P.

S.N.E.S.T.

D.G.E.S.T.

INSTITUTO TECNOLOGICO DEL ISTMO

ASIGNATURA: Métodos Numéricos

UNIDAD 1 Introducción a los métodos numéricos

ALUMNO: Luis Ángel Martínez Luis

DOCENTE: I.Q.I Hypatia Antonio Mumenthey

ESPECIALIDAD: Ingeniería Eléctrica

GRUPO: “K”

SEMESTRE: 4°

Heroica Ciudad de Juchitán de Zaragoza Oaxaca, Oaxaca. A 9 de marzo de 2017

Objetivo: El objetivo de este trabajo es tener una clara idea de lo que son los métodos numéricos, el llevar acabo aplicación de estos métodos. El objetivo principal es que se conozca todo lo relacionado a los métodos numéricos, sus usos, aplicaciones, reglas, en qué consisten esto métodos y cuáles son los elementos que lo componen. También nos interesa saber los conceptos que se relacionan con la materia de métodos numéricos, la forma en que se desarrollan los problemas con la utilización de tales métodos. Como aplicar o resolver los problemas usando estos métodos. El objetivo del análisis de los métodos numéricos es encontrar u obtener soluciones aproximadas a los problemas complejos utilizando solo las operaciones más simples de la aritmética, que nos son proporcionadas por dichos métodos numéricos. El objetivo de la unidad es que tengamos un amplio conocimiento de los métodos numéricos, un amplio conocimiento de cómo se llevan a cabo estas metodologías y de qué forma las podemos aplicar. También, tenemos como objetivo el poder desarrollar ejercicios mediante los métodos numéricos, así como el conocer su teoría, uso y aplicación. Podemos distinguir entre los tipos métodos y la utilidad que tienen cada uno. Tener conocimiento de la historia de los métodos numéricos, la finalidad de emplear estos métodos y el porqué de sus aplicaciones.

Introducción: 1.1 Historia de los métodos numéricos. La presente historia nos habla acerca de cómo surgieron los métodos numéricos, como surgieron las primeras aportaciones matemáticas y los conocimientos que en ellas se obtenía. Se habla cual fue en la época en donde se emplearon por primera vez los métodos numéricos y lo que con que estos métodos se podría calcular u obtener. 1.1 Historia de los métodos numéricos. Aunque, como ciencia estructurada y rigurosa, la Matemática Numérica es relativamente joven (siglos XIX y XX), desde tiempos muy remotos se emplearon métodos numéricos aproximados. En el papiro de Rhind (el documento matemático más antiguo que se conserva) que data de unos 2000 años a. n. e., fruto del desarrollo de la antigua civilización egipcia, aparecen, entre más de 80 problemas resueltos, métodos aproximados para calcular el volumen de un montón de frutos y el área de una circunferencia, tomándola como la de un cuadrado cuyo lado fuera 8/9 del diámetro de la circunferencia. En Babilonia (siglos XX al III, a. n. e.) ya se conocían métodos aproximados para calcular raíces cuadradas. De la antigua Grecia, son famosos los trabajos de Arquímedes (siglo III a. n. e.) en la Cuadratura del círculo que le permitió, aproximando una circunferencia mediante polígonos inscritos y circunscritos, llegar a una aproximación. Sobre los conocimientos matemáticos de la cultura egipcia los primeros registros que se tienen son el Papiro de Moscú y de Rhind, escritos aproximadamente en 1850 A. de C. y 1650 A. de C., respectivamente. Ambos documentos incluyen ejemplos de cálculos que implican el manejo de ecuaciones lineales con una y dos incógnitas. En cuanto a geometría, determinaron con éxito el área y el volumen de diversas figuras geométricas: entre ellas, el volumen de una pirámide truncada.

Introducción: 1.2 Razones de su aplicación. En este apartado hablaremos de las razones que hay para utilizar estos métodos numéricos. Cuáles son los motivos que llevan a los métodos numéricos a ser muy importantes y útiles. También nos recalca brevemente el concepto de métodos numéricos y su aplicación y para que nos sirven.

1.2 Razones de su aplicación. Los métodos numéricos son técnicas mediante las cuales es posible formular problemas matemáticos de tal forma que puedan resolverse usando operaciones aritméticas. Hay muchos tipos de métodos numéricos, y comparten una característica común: invariablemente se deben realizar un buen número de tediosos cálculos aritméticos. Los métodos numéricos son herramientas muy poderosas para a solución de problemas. Pueden manejar sistemas de ecuaciones grandes, no linealidades y geometrías complicadas, comunes en la ingeniería. También es posible que se utilice software disponible comercialmente que contenga métodos numéricos. El uso inteligente de estos programas depende del conocimiento de la teoría básica de estos métodos; además hay muchos problemas que no pueden plantearse al emplear programas hechos, conociendo bien los métodos numéricos se puede diseñar programas propios y así no comprar software costoso. Al mismo tiempo se aprende a conocer y controlar los errores de aproximación que son inseparables de los cálculos numéricos a gran escala. Los métodos numéricos son un medio para reforzar la comprensión de las matemáticas, porque profundizan en los temas que de otro modo resultarían obscuros, esto aumenta su capacidad de comprensión y entendimiento en la materia.

Introducción: 1.3 Conceptos de exactitud, precisión y error. Este tema desarrollaremos conceptos tales como exactitud, precisión, error y cifras significativas. Mencionaremos el concepto de cifras significativas, las reglas que estas deben de cumplir para llevar acabo su aplicación. Al igual que los concepto de precisión y exactitud. El cual también menciona sus diferencias y que no deben ser confundidos. En uno se menciona que es el acercamiento al valor verdadero y el otro de que tan cerca quedan los valores obtenidos unos del otro. Y por último relatamos el concepto de error, que se define como el valor de la inexactitud y la imprecisión. 1.3 Conceptos de exactitud, precisión y error. Conceptos de exactitud, precisión, cifras significativas. Cifra significativa: El concepto de cifra significativa lo podemos definir como aquella que aporta información no ambigua ni superflua acerca de una determinada medida experimental, son cifras significativas de un número vienen determinadas por su error. Son cifras que ocupan una posición igual o superior al orden o posición de error.

Cuando se emplea un número en un cálculo, debe haber seguridad de que pueda usarse con confianza. El concepto de cifras significativas tiene dos implicaciones importantes en el estudio de los métodos numéricos. 1.- Los métodos numéricos obtienen resultados aproximados. Por lo tanto, se debe desarrollar criterios para especificar qué tan precisos son los resultados obtenidos. 2.- Aunque ciertos números representan número específicos, no se pueden expresar exactamente con un número finito de cifras. Reglas de operaciones con cifras significativas. Regla 1: los resultados experimentales se expresan con una sola cifra dudosa, e indicando con + - la incertidumbre en la medida. Regla 2: las cifras significativas se cuentan de izquierda a derecha, a partir del primer dígito diferente de cero y hasta el digito dudoso. Regla 3: al sumar o restar dos números decimales, el número de cifras decimales del resultado es igual al de la cantidad con el menor número de ellas. Regla 4: al multiplicar o dividir dos números, el número de cifras significativas del resultado es igual al del factor con menos cifras. Precisión y exactitud: En ingeniería, ciencia, industria, estadística, exactitud y precisión no son equivalentes. Es importante resaltar que la automatización de diferentes pruebas o técnicas puede producir un aumento de la precisión. Esto se debe a que con dicha automatización, lo que logramos es una disminución de los errores manuales o su corrección inmediata. Precisión: se refiere a la dispersión del conjunto de valores obtenidos de mediciones repetidas de una magnitud. Cuanto menor es la dispersión mayor la precisión. Una medida común de la variabilidad es la desviación estándar de las mediciones y la precisión se puede estimar como una función de ella.

Exactitud: se refiere a cuán cerca del valor real se encuentra el valor medido. En términos estadísticos, la exactitud está relacionada con el sesgo de una estimación. Cuanto menor es el sesgo más exacto es una estimación. También se refiere a la aproximación de un número o de una medida al valor verdadero que se supone representa. Cuando expresamos la exactitud de un resultado se expresa mediante el error absoluto que es la

diferencia entre el valor experimental y el valor verdadero. También es la mínima variación de magnitud que puede apreciar un instrumento.

Error: El término error se usa para representar tanto la inexactitud como la imprecisión delas predicciones. Con dichos conceptos como antecedentes, ahora analizaremos los factores que contribuyen al error en los cálculos numéricos.

Introducción: 1.4 Errores inherentes de redondeo y por truncamiento. En este apartado mencionaremos los siguientes conceptos: errores inherentes de redondeo y por truncamiento. Errores inherentes: errores que existen en los valores de los datos, causados por incertidumbre en las mediciones, por verdaderas equivocaciones, o por la naturaleza necesariamente de la representación, mediante un número finito de dígitos, de cantidades que no pueden representarse exactamente con el número de dígitos permisible. Errores de redondeo y truncamiento. Los errores de redondeo se originan debido a que la computadora emplea un número determinado de cifras significativas durante un cálculo y los errores de truncamiento son debidos a la omisión de términos en una serie que tiene un número infinito de términos.

1.4 Errores inherentes de redondeo y por truncamiento. Errores inherentes: Son errores que existen en los valores de los datos, causados por incertidumbre en las mediciones, por verdaderas equivocaciones, o por la naturaleza necesariamente aproximada de la representación, mediante un número finito de dígitos, de cantidades que no pueden representarse exactamente con el número de dígitos permisible. Por ejemplo, si necesitamos usar p en un cálculo, podemos escribirlo como 3.14, 3.1416, 3.1415926535589793..., etc. En muchos casos aún una fracción simple no tiene representación decimal exacta, por ejemplo 1/3, que puede escribirse solamente como una sucesión finita de números 3. Muchas fracciones que tienen representación finita en un sistema no la tienen en otro, el número 1/10 es igual a 0.1 en decimal y en binario es 0.000110011001100... Errores de redondeo: Los errores de redondeo se originan debido a que la computadora emplea un número determinado de cifras significativas durante un cálculo. Es el error que se comete por tener la limitación de espacio en cuanto a las cifras decimales que pueden manejarse para una variable, por ejemplo si en la fórmula siguiente se nos pide redondear a 4 cifras decimales. Los números tales como no pueden expresarse como un número fijo de cifras significativas. Por lo tanto no pueden ser expresados exactamente por la computadora. Esta discrepancia por la omisión se dé cifras se llama error de redondeo. Muchas veces, los computadores cortan los números decimales entre e 17° y 12° decimal introduciendo así un error de redondeo. Por ejemplo, el valor de "e" se conoce como 2.718281828... Hasta el infinito. Si cortamos el número en 2.71828182 (8 cifras significativas luego del punto decimal) estamos obteniendo u error de: E = 2.718281828 -2.71828182 = 0.000000008... Sin embargo, como no consideramos que el número que seguía al corte era mayor que 5, entonces nos convenía dejar el número como 2.71828183, caso en el cual el error sería solo de: E = 2.118281828 -2.11828183 = -0.000000002... , que en términos absolutos es mucho menor que el anterior. En general, el error de corte de las computadoras será muy inferior al error introducido por un usuario, que generalmente corta a un menor número de cifras significativas.

Errores por truncamiento: Estos son debidos a la omisión de términos en una serie que tiene un número infinito de términos. Los errores de truncamiento son aquellos que resultan al usar una aproximación en lugar de un procedimiento matemático exacto. Es el error cometido al eliminar uno o varios

términos cuando una variable se forma por una sumatoria de ellos. Los errores de truncamiento tienen relación con el método de aproximación que se usará ya que generalmente frente a una serie infinita de términos, se tenderá a cortar el número de términos, introduciendo en ese momento un error, por no utilizar la serie completa (que se supone es exacta). En una iteración, se entiende como el error por no seguir iterando y seguir aproximándose a la solución. En un intervalo que se subdivide para realizar una serie de cálculos sobre él, se asocia al número de paso, resultado de dividir el intervalo "n" veces. Por ejemplo podemos utilizar la serie infinita de Taylor para calcular el seno de cualquier ángulo X, expresado en radianes:

𝐬𝐞𝐧 𝐗 = 𝐗 −

𝐗𝟑 𝐗𝟓 𝐗𝟕 − − +⋯ 𝟑! 𝟓! 𝟕!

Por supuesto que no podemos usar todos los términos de la serie en un cálculo, porque la serie es infinito; entonces, los términos omitidos introducen un error por truncamiento.

Introducción: 1.5 Errores absoluto y relativo. Por consiguiente daremos las siguientes definiciones. Errores absoluto, relativo y errores porcentuales. Errores absolutos: Es la diferencia entre el valor de la medida y el valor tomado como exacta. Errores relativos: Es el cociente (la división) entre el error absoluto y el valor exacto. El error relativo también se puede multiplicar por el 100% para expresarlo como: Error relativo porcentual. El cual también incluiremos las respectivas ecuaciones que representan a cada tipo de valor.

1.5 Errores absoluto y relativo. Error absoluto: Es la diferencia entre el valor de la medida y el valor tomado como exacta. Puede ser positivo o negativo, según si la medida es superior al valor real o inferior (la resta sale positiva o negativa). Tiene unidades, las mismas que las de la medida. 𝐄 = 𝐏´𝐏 ; 𝐄𝐀 = |𝐏´ − 𝐏| Error relativo: Es el cociente (la división) entre el error absoluto y el valor exacto. Si se multiplica por 100 se obtiene el tanto por ciento (%) de error. Al igual que el error absoluto puede ser positivo o negativo (según lo sea el error absoluto) porque puede ser por exceso o por defecto. No tiene unidades.

𝐄

𝐑 =

𝐄

| 𝐏´−𝐏 | 𝐏

𝐑=

| 𝐕𝐀 | 𝐕𝐕

El error relativo también se puede multiplicar por el 100% para expresarlo como: Error relativo porcentual.

𝐄𝐑𝐏 =

𝑬𝑹 ∗𝟏𝟎𝟎

Ejemplo: supone que el valor para un cálculo debería ser P=0.10*10² pero se obtuvo un resultado P´=0.08*10². Resolver el error absoluto, error relativo y error relativo porcentual. Datos: P=0.10*10² P´=0.08*10²

𝐄 𝐑 =

𝐄𝐀 = |𝐏´ − 𝐏| = |𝟎. 𝟎𝟖 ∗ 𝟏𝟎𝟐 − 𝟎. 𝟏𝟎 ∗ 𝟏𝟎𝟐 | = 𝟐

| 𝐏´−𝐏 | |𝟎.𝟎𝟖∗𝟏𝟎𝟐 −𝟎.𝟏𝟎∗𝟏𝟎²| =𝟎.𝟐 𝐏 = 𝟎.𝟏𝟎∗𝟏𝟎²

𝐄𝐑𝐏 =

𝑬𝑹 ∗𝟏𝟎𝟎=𝟎.𝟓∗𝟏𝟎𝟎=𝟓𝟎%

Introducción: 1.6 Uso de herramientas computacionales. Por último, en este tema hablaremos de las herramientas que tenemos a nuestro alcance para poder desarrollar de una mejor manera los métodos numéricos: Es decir las herramientas computacionales. El cual mencionaremos los tipos y cuáles son los software que nos permite o ayudan a desarrollar los métodos numéricos, y que nos facilitan el trabajo, cuando queremos obtener una respuesta sobre un problema u operación compleja. Podemos apreciar los tipos de software desarrollados para emplearse en la materia de métodos numéricos. 1.6 Uso de herramientas computaciones. En la actualidad existen dos tipos de usuarios de software. Por un lado están aquellos que toman lo que se les da. Es decir, quienes se limitan a las capacidades que encuentran en un modelo es andar de operación de software existente. Por ejemplo, resulta muy sencillo resolver un sistema de ecuaciones lineales o generar una gráfica con valores x-y con Excel o con MATLAB. Muchos problemas de cómputo en ingeniería pueden ser divididos en pedazos de cálculos bien conocidos, como solución de sistemas de ecuaciones lineales, transformada rápida de Fourier, etc. Por consecuencia, frecuentemente el programador sólo tiene que escribir una rutina pequeña (driver) para el problema particular que tenga, porque el software para resolver las subtareas se encuentra ya disponible. De esta forma la gente no tiene que realizar el problema una y otra vez. Para álgebra lineal y algunos otros cómputos numéricos básicos hay software de calidad gratis (a través de Netlib). NETLIB Netlib (NET LIBrary) es una colección grande de software, documentos, bases de datos gratis que son de interés para las comunidades científicas y de métodos numéricos. El depósito es mantenido por los Laboratorios Bell de AT&T, la Universidad de Tennessee y el Laboratorio Nacional Oak Ridge, y replicado en varios sitios alrededor del mundo. Netlib contiene software de alta calidad que ha sido probado en forma intensiva, pero todo el software libre no tiene garantía y tiene poco soporte. Para poder usar el software, primero se tiene que descargar en su computadora y entonces compilarlo.

PAQUETES DE SOFTWARE COMERCIAL PARA CÓMPUTO NUMÉRICO GENERAL: NAG El Grupo de Algoritmos numéricos (Numerical Algorithms Group) (NAG) ha desarrollado una biblioteca de Fortran conteniendo alrededor de 1000 subrutinas accesibles al usuario para resolver problemas generales de matemáticas aplicadas, incluyendo: ecuaciones diferenciales ordinarias y parciales, transformada rápida de Fourier, cuadratura, álgebra lineal, ecuaciones no lineales, ecuaciones integrales, y más. IMSL La biblioteca numérica de Fortran IMSL hecha por Visual Numerics, Inc. cubre muchas de las áreas contenidas en la biblioteca NAG. También tiene soporte para analizar y presentar datos estadísticos en aplicaciones científicas y de negocios. NUMERICAL RECIPES Los libros de Numerical Recipes in C/Fortran son muy populares entre los ingenieros porque pueden ser usados como libro de cocina donde se puede encontrar una "receta (recipe)" para resolver algún problema a mano. Sin embargo, el software correspondiente de Numerical Recipes no es comparable en alcance o calidad al dado por NAG o IMSL. Es un software muy usado en universidades, centros de investigación y por ingenieros. En los últimos años ha incluido muchas más capacidades, como la de programar directamente procesadores digitales de señal, crear código VHDL y otras. MATLAB Es un programa de cálculo numérico, orientado a matrices y vectores. Por tanto desde el principio hay que pensar que todo lo que se pretenda hacer con él, será mucho más rápido y efectivo si se piensa en términos de matrices y vectores. GNU OCTAVE Es un programa libre para realizar cálculos numéricos. Como indica su nombre es parte de proyecto GNU. MATLAB es considerado su equivalente comercial. Entre varias características que comparten se puede destacar que ambos ofrecen un intérprete permitiendo ejecutar órdenes en modo interactivo. Nótese que Octave no es un sistema de álgebra computacional como podría ser GNU Máxima, sino que usa un lenguaje que está orientado al análisis numérico.

Conclusiones: El estudio de los métodos numéricos es muy útil y a su vez muy importante, para todos aquellos que requieran de herramientas para llevar acabo la resolución de una operación, que inicialmente resulta muy complicado resolverlo, incluso empleando los métodos tradicionales más conocidos, ya que estos métodos muchas veces no logran darnos una clara respuesta o simplemente nos hace muy laborioso el llegar a una conclusión o respuesta, y muchas veces estos métodos resultan ser insuficientes, aunque esto no signifique que las operaciones sean imposibles de resolver mediante estos métodos. Es ahí donde los métodos numéricos son útiles, ya que su aplicación nos facilita el trabajo de cierto modo. Pero para a llevar acabo un buen uso de los métodos numéricos, debemos en tener en cuentas varios conceptos relacionados a dichos métodos, tales conceptos como lo son: exactitud, precisión, error, cifras significativas, etc., ya que al saber o tener un conocimiento previo de dichos conceptos no pueden facilitar el uso y aplicación de los métodos numéricos. Los métodos numéricos generalmente son, como su nombre lo indica “métodos” que nos facilita la elaboración de una operación, pero al llevar acabo estos métodos nos podemos encontrar con los conceptos antes mencionados, tal ejemplo seria el término “Error”, ya que al aplicar los métodos numéricos y tener una respuesta supuestamente verdadera podría presentarnos un pequeño error, que va de la mano con otros términos que son: “precisión” y “exactitud”, dichos conceptos, en el que el aumento o disminución de ambos se verán claramente reflejados en el valor del error, y de esa manera darnos cuenta de que tan preciso y exacto es nuestro resultado obtenido o respuesta supuestamente verdadera. Aunque en tener en cuenta el término error no nos deja cerca de la perfección, pero al considerarlo, podremos tener una clara idea de lo que hemos obtenido y de lo que nos hace falta obtener, eso nos ayuda a llevar a cabo a una mejor forma de pensar y así podemos tomar buenas decisiones y por consiguiente mejores resultados. En lo relacionado a las prácticas, el estudio de los métodos numéricos nos puede ayudar a tener un mejor conocimiento, a un mejor entendimiento e incluso nos facilitan el uso de software especializados en la aplicación de los métodos numéricos, y a su vez esto resulta una forma más ventajosa y práctica para llevar acabo un problema o una operación que requiera de lo que son métodos numéricos. El uso de software nos ayuda a tener un mejor entendimiento y vamos desarrollando la habilidad para realizar operaciones y resolver problemas relacionados a los métodos numéricos. Las aplicaciones de los métodos numéricos son muy extensas, necesarias y útiles, principalmente en el campo de la ingeniería, para resolución de ecuaciones, operaciones que suelen presentarse de manera complicada para la aplicación de los métodos tradicionales.

De manera más breve, los métodos numéricos son procedimientos o como su nombre indica métodos que tienen como objetivos simplificar el trabajo al momento de llevar a cabo una operación demasiada complicada como para resolver de manera tradicional, esto es de la manera en que una persona suele tener costumbre de realizar sus operaciones, ya que estos métodos tradicionales suele ser largos y confusos, de ahí los métodos numéricos, como métodos más resumidos, claros y que llevan a conclusiones más acertadas y muchas veces carecen de errores, aunque el tener errores no indique que la respuesta obtenida sea totalmente incierta o errónea. Los métodos numéricos, son metodologías que llevan a cabo la utilización de técnicas meramente algebraicas, que nos ayudan a resolver problemas, ecuaciones o sistemas de ecuaciones complejos, que al desarrollar de manera analítica se presentan de formas confusas y complejas. Los métodos numéricos son la base para la resolución, simulación de problemas complejos utilizando software. Los métodos numéricos se deben de descomponer en elementos más pequeños, que van cumpliendo ciertas leyes que a su vez depende del tipo de problema presentado, por consiguiente va suponiendo valores al inicio y luego comprobara mediante interacciones para llegar a un resultado más próximo al resultado real.

Related Documents

Metodos Numericos
October 2019 25
Metodos Numericos
November 2019 22
Final Metodos Numericos
December 2019 23

More Documents from ""