Zapobiec katastrofie
17 kwietnia 2018 roku o godzinie 11:03 zmęczenie metalu spowodowało pęknięcie łopatki wentylatora w lewym silniku samolotu Southwest Airlines 1380 lecącego z Nowego Jorku do Dallas. Stało się to na wysokości około 10 tys. m. Została rozerwana zewnętrzna część silnika. Kawałki metalu zbombardowały kadłub i rozbiły okno w 14. rzędzie. Podczas gwałtownej dekompresji kabiny jedna pasażerka została wyssana do połowy przez uszkodzone okno i doznała śmiertelnych obrażeń. Pilotom udało się zapobiec większej tragedii i bezpiecznie wylądować w Filadelfii.
Liczba wypadków lotniczych spowodowanych zmęczeniem metalu rośnie od lat. W pierwszej dekadzie XXI wieku (tego okresu dotyczą ostatnie dane) było ich 30, w tym kilka zakończonych awaryjnym lądowaniem. Chociaż w panelu drzwi Boeinga 737 Max 9, oderwanych na wysokości 5 tys. m 5 stycznia 2024 roku, prawdopodobnie brakowało śrub, to w 2019 roku w rodzinie samolotów Max zauważono zagrażający bezpieczeństwu problem związany ze zmęczeniem materiału, wymagający konieczności wymiany listew skrzydłowych podatnych na pęknięcia.
Samolot bywa określany jako „dwa miliony części latających zwartym szykiem” – i narażonych na szwank. W kolejnych lotach części te są poddawane cyklom intensywnych naprężeń, podczas których drobne defekty – nieuniknione w procesie produkcyjnym – mogą zainicjować powstanie małych pęknięć. Gdy pęknięcie dostatecznie się powiększy, wówczas – jak miało to miejsce w przypadku lotu Southwest 1380 – może dojść do złamania. Dlatego projektanci samolotów muszą uwzględniać maksymalne obciążenie, jakie będzie musiała wytrzymać każda z części.
Pęknięcia mogą się pojawiać w konstrukcjach tak masywnych, jak tamy, mosty i budynki oraz tak bliskich nam anatomicznie, jak kości i zęby. Inżynierowie z National Institute of Standards and Technology modelują zawalenie się apartamentowca przy plaży na Florydzie w 2021 roku, aby zrozumieć, jaką rolę w katastrofie mogły odegrać pęknięcia w podporach. A niedawne badanie łodzi podwodnej Titan, która implodowała na północnym Atlantyku, pozwoliło zidentyfikować możliwe miejsca pęknięć. W metalu, betonie i szkliwie zębów pęknięcia powstają w miejscach narażonych na największe naprężenia, a najbardziej niebezpieczne stają się wtedy, gdy przekraczają długość krytyczną dla danego materiału.
By zapobiegać awariom, inżynierowie korzystają z podobnych narzędzi do badania niezliczonych rodzajów pęknięć; ważne jest też, aby maszynę lub konstrukcję poddawano testom wytrzymałości. Takie testy bywają jednak drogie i nie zawsze są wykonalne. Użytkowany już element także należy okresowo sprawdzać, co również jest kosztowne.
Oprócz tych praktycznych sposobów istnieje trzecia kluczowa metoda przeciwdziałania awariom: symulacja komputerowa. Podczas projektowania symulacje pomagają inżynierom zarówno tworzyć i testować projekty możliwe do realizacji w różnych warunkach, jak i optymalizować takie czynniki, jak wytrzymałość i masa. Na przykład samoloty muszą być równocześnie tak lekkie i trwałe, jak to tylko możliwe. Prawidłowo wykonane symulacje pomagają zapobiegać katastrofom.
Rzetelność symulacji ma zasadnicze znaczenie dla bezpieczeństwa, ale nie podlegają one takiej kontroli ani nadzorowi, jak jakość produktu, konserwacja lub częstość inspekcji. Analiza zawalenia się norweskiej platformy wiertniczej w 1991 roku wykazała błąd symulacji – założono, że jedna z wewnętrznych ścian nośnych będzie poddawana o połowę mniejszym naprężeniom niż w rzeczywistości. W rezultacie zaprojektowano znacznie słabsze wzmocnienie, niż było to konieczne, i konstrukcja zawiodła.
Ponieważ Stany Zjednoczone rozpoczynają zakrojony na dużą skalę program modernizacji swojej infrastruktury, zapewnienie bezpieczeństwa i trwałości będzie miało kluczowe znaczenie. Solidne symulacje komputerowe mogą stanowić wsparcie w obu przypadkach, zmniejszając tym samym konieczność wykonywania kosztownych testów wytrzymałości. Niepokoi jednak to, że symulacje nie zawsze są dostatecznie wiarygodne. Matematyka podpowiada, w jaki sposób je ulepszyć, aby samochody, samoloty, budynki, mosty i inne konstrukcje były bezpieczniejsze.
Jeśli wziąć pod uwagę złożoność maszyn XXI wieku, ciekawe jest, że u podstaw ich mechaniki leży anagram z XVII wieku. Chodzi o prawo Hooke’a – ut tensio, sic vis („jakie wydłużenie, taka siła”) zapisane w formie anagramu ceiiinosssttuv. Zgodnie z tym prawem odkształcenie obiektu sprężystego, na przykład metalowej sprężyny, jest proporcjonalne do przyłożonej siły. Prawo obowiązuje tylko wtedy, gdy obiekt pozostaje sprężysty, czyli po usunięciu siły powraca do pierwotnego kształtu. Prawo Hooke’a przestaje obowiązywać, gdy siła staje się zbyt duża.
Sytuacja się komplikuje, gdy uwzględni się więcej wymiarów. Wyobraźmy sobie, że lekko dociskamy przyklejoną do stołu gumową sześcienną kostkę. Wówczas zmniejszenie wysokości kostki w porównaniu z jej pierwotną wysokością, czyli „odkształcenie”, jest proporcjonalne do siły przyłożonej na jednostkę powierzchni górnej ścianki sześcianu, czyli do wywoływanych przez tę siłę „naprężeń”. Można także przykładać różne siły do różnych ścian pod różnymi kątami – poddając sześcian różnym „obciążeniom”. Wówczas naprężenie i odkształcenie będą zależne od wielu czynników i zazwyczaj będą różne w różnych miejscach. Uogólniona postać prawa Hooke’a będzie nadal obowiązywać – pod warunkiem, że obciążenia nie będą zbyt duże: naprężenia i odkształcenia pozostają proporcjonalne, ale zależność jest bardziej skomplikowana, choć na przykład podwojenie wszystkich naprężeń wiąże się z podwojeniem wszystkich odkształceń.
Z prawa Hooke’a korzysta się przy badaniu bardzo różnych materiałów – metalu, betonu, gumy czy nawet kości (zakres stosowanych sił zależy od sprężystości materiału.) Jednak to prawo dostarcza tylko jednej z wielu informacji potrzebnych do określenia reakcji obiektu na rzeczywiste obciążenia. Inżynierowie muszą także uwzględnić równowagę wszystkich sił działających na obiekt, zarówno wewnętrznych, jak i zewnętrznych, oraz wpływ różnych kierunków odkształceń. Efektem końcowym są tzw. równania różniczkowe cząstkowe (partial differential equation, PDE), które dotyczą szybkości, z jaką wielkości takie, jak naprężenie i odkształcenie, zmieniają się w różnych kierunkach. PDE są zbyt trudne do ręcznego, a nawet dokładnego rozwiązania, zwłaszcza jeśli dotyczą skomplikowanych kształtów geometrycznych, na przykład łopatek wentylatorów albo wsporników mostów.
Mimo to, począwszy od Władimira Kondratiewa w 1967 roku, matematycy stosowali PDE w przypadku prostych kształtów, jak wielokąty i wielościany, traktując je jako źródło istotnych informacji. Na przykład takich, że naprężenia są zwykle największe w pobliżu m.in. otworów, przewężeń, ostrych załamań przekrojów poprzecznych itp. (Takie koncentratory naprężeń nazywa się w mechanice karbami). Dlatego łatwiej rozerwać folię, najpierw ją nacinając, a potem rozedrzeć od miejsca nacięcia.
Ta cecha jest uwzględniana w konstrukcji wielu części maszyn, których spójność ma kluczowe znaczenie dla bezpieczeństwa. Problem w tym, że choć projektanci starają się te miejsca maksymalnie zaokrąglić, to i tak są one narażone na pękanie. Siły, które będą działać rozpierająco na graniczne krawędzie, najprawdopodobniej wydłużą pęknięcie. Dlatego inżynierowie muszą zwracać szczególną uwagę na te miejsca i działające na nie siły, aby mieć pewność, że maksymalne naprężenia – jakie może wytrzymać obiekt, zanim zacznie się rozpadać – nie zostaną przekroczone.
Aby to zrobić, muszą znaleźć przybliżone rozwiązania równań dla danego obiektu przy różnych rzeczywistych obciążeniach. W tym celu korzystają z tzw. metody elementów skończonych MES (finite element metod, FEM). W przełomowym artykule z 1956 roku jego autorzy – M. Jonathan Turner, Ray W. Clough, Harold O. Martin i L. J. Topp – wykazali, że aby zrozumieć, w jaki sposób obiekt się odkształca, należy potraktować go jako złożony z wielu połączonych części zwanych elementami skończonymi.
Załóżmy, że chcemy wiedzieć, jak odkształca się pod wpływem silnego wiatru dwuwymiarowy, sprężysty obiekt, na przykład naprężony ekran rozpięty na ramie, gdy wiatr uderza weń prostopadle. Wyobraźmy sobie, że zastępujemy ekran zbiorem małych połączonych trójkątnych ścianek, z których każda może się poruszać i rozciągać, ale musi pozostać płaskim trójkątem (mogą też być czworokąty.) Ten model ekranu z trójkątów nie jest tym samym, co pierwotny, gładki ekran, ale tworzy problem łatwiejszy do rozwiązania. Podczas gdy w przypadku rzeczywistego ekranu trzeba by określać przemieszczenie każdego punktu – co wiąże się z nieskończonością – modelowy ekran z trójkątów umożliwia szukanie tylko końcowego położenia rogów każdego trójkąta. To problem skończony, dość łatwy do rozwiązania, z którego można wnioskować o położeniach całej powierzchni ekranu.
Zgodnie z obowiązującą w fizyce zasadą ekran przybierze kształt, w którym energia potencjalna, odpowiadająca jego położeniu lub konfiguracji, jest minimalna. Z tej samej zasady wynika, że po szarpnięciu struna gitary ostatecznie odzyska prostoliniowość. Zasada ta dotyczy również naszego uproszczonego ekranu ES (ES to elementy skończone, w tym przypadku trójkąty), dając zestaw stosunkowo prostych równań liniowych nieznanych przemieszczeń w węzłach. Komputery są bardzo biegłe w rozwiązywaniu takich równań i umożliwiają określenie odkształceń modelowego ekranu.
W podobny sposób można modelować obiekty trójwymiarowe; w tym przypadku ES są zwykle czworościanami lub sześcianami, a liczba równań jest znacznie większa. Modelowanie dla całego samolotu wiąże się z kilkoma milionami niewiadomych.
Chociaż metoda elementów skończonych (MES) została pierwotnie opracowana w celu określania wytrzymałości konstrukcji, obecnie postrzegana jest jako ogólny sposób rozwiązywania problemów dzięki PDE i jest stosowana również w wielu innych dziedzinach, na przykład w onkologii (śledzenie wzrostu nowotworu), biomechanice (produkcja obuwia), animacji (większy realizm ruchu, jak w filmie „WALL-E” z wytwórni Pixar z 2008 roku) lub w instrumentoznawstwie (badanie wibracji wewnątrz i wokół instrumentów podczas ich projektowania). Chociaż ES-y są pojęciem nieznanym większości osób, trudno byłoby znaleźć obszar naszego życia, w którym nie odgrywają żadnej roli.
Kilka ich zastosowań obejmuje modelowanie pęknięć. Na przykład w 2018 roku ES-y zostały wykorzystane do zbadania sposobu tworzenia się pęknięć w zębach oraz do ustalenia najlepszych rodzajów ich wypełnień. W innym badaniu naukowcy sprawdzili, jakich typów złamań kości udowej można spodziewać się w przypadku osteoporozy w różnym wieku. Symulacja MES pomaga również odkryć pierwotną przyczynę awarii, jak w przypadku zawalenia się budynku na Florydzie i implozji Titana, a także jest rutynowo stosowana po wypadkach lotniczych.
Bazując na zgromadzonym doświadczeniu, inżynierowie Richard H. MacNeal, John A. Swanson, Pedro V. Marcal i inni opublikowali w latach 70. kilka komercyjnych kodów źródłowych do MES. Pierwowzór najbardziej znanego z nich został napisany dla NASA pod koniec lat 60., więc obecnie rodzina tych programów o otwartym kodzie źródłowym nosi nazwę NASTRAN (skrót od „Nasa Structural Analysis”). NASTRAN jest programem podstawowym na kluczowym etapie projektowania lotniczego, podczas którego inżynierowie przeprowadzają przybliżoną analizę ES modelu komputerowego całego projektowanego samolotu w celu zidentyfikowania obszarów i komponentów, w których najprawdopodobniej wystąpią problemy strukturalne. Te obszary i części są następnie badane indywidualnie bardziej szczegółowo, aby określić maksymalne naprężenia, jakich będą doświadczać, oraz sposób, w jaki mogą powstawać w nich pęknięcia.
Odpowiedzi na pytania na przykład o to, czy może pęknąć śruba lub odłamać się łopatka wentylatora, są udzielane na tym indywidualnym poziomie. Prawie wszystkie takie badania są przeprowadzane z wykorzystaniem programów opracowanych kilkadziesiąt lat temu, stosowanych w większości firm projektowych. Działanie części samolotów lub samochodów, z których korzystamy, zależy w znacznym stopniu od kodów tych programów. Jaka jest ich dokładność? Odpowiedź na to pytanie wymaga podejścia matematycznego.
Wcześniej opisana była metoda określania odkształceń modelu ES dla ekranu, ale jak bliski rzeczywistemu odkształceniu jest wynik jej zastosowania? Odpowiedzi na to pytanie dotyczy twierdzenie sformułowane po raz pierwszy przez francuskiego matematyka Jeana Céa w jego dysertacji z 1964 roku, ale oparte na pracach rosyjskiego matematyka Borysa G. Galerkina. Twierdzenie głosi, że dopóki minimalizujemy energię potencjalną, dopóty spośród wszystkich możliwych odkształceń, jakie może przyjąć nasz ekran ES, to określone naszą metodą będzie najbliższe dokładnemu wyznaczonemu dzięki PDE.
Na początku lat 70. kilku matematyków wykorzystało to twierdzenie, aby udowodnić, że różnica między wynikami stosowania MES a rzeczywistym kształtem będzie maleć do zera, w miarę jak siatki (np. wspomniana siatka trójkątów) będą coraz bardziej szczegółowe, z coraz większą liczbą coraz mniejszych elementów. Matematycy Ivo Babuška i A. Kadir Aziz (wówczas z University of Maryland) po raz pierwszy zaprezentowali ujednoliconą teorię ES, obejmującą jej podstawy matematyczne w przełomowej pracy z roku 1972.
Mniej więcej w tym samym czasie matematycy zauważyli, że inżynierowie wprowadzali różne modyfikacje i „sztuczki” do komercyjnych kodów, które, choć często naruszały kluczową zasadę minimalnej energii, empirycznie wydawały się efektywne. Matematyk Gilbert Strang z MIT nazwał takie modyfikacje „przestępstwami wariacyjnymi” (od bliskiego MES rachunku wariacyjnego). Matematycy udowodnili, że niektóre z tych „przestępstw” były łagodne, ale inne mogły dawać błędne wyniki.
Szczególnie problematyczne były obejścia stosowane w celu poprawy dokładności zwane blokowaniem. Problem ten pojawia się wtedy, gdy równania sprężystości zawierają wartość bliską nieskończoności – na przykład ułamek, w którym mianownikiem jest grubość skrajnie cienkiej blachy metalowej. Blokowanie często jest też stosowane przy modelach gumowych, bo wtedy odkształcalność wynikająca z prawa Hooke’a staje się bardzo duża. Dopiero w latach 90. Babuška i ja podaliśmy precyzyjną definicję i charakterystykę blokowania. Do tego czasu kilku innych matematyków, w szczególności Franco Brezzi z Università degli Studi di Padova we Włoszech, ustaliło w przypadku wielu problemów, które „przestępstwa wariacyjne” związane z blokowaniem mają sens, a których należy unikać, ponieważ mogą prowadzić do niedokładnych wyników.
Jednak ta analiza miała niewielki wpływ na starsze kody, w których ryzykowne modyfikacje pozostały, ponieważ były w tych kodach zbyt mocno zakorzenione. Wydaje się też, że między matematycznymi predykcjami a praktyką występuje rozbieżność, którą profesor inżynierii lotniczej na University of Texas w Austin Thomas J. R. Hughes nazwał „odcieniami szarości”. Chodzi o to, że „niektóre matematycznie wątpliwe modyfikacje mogą działać lepiej niż te zatwierdzone do stosowania w przypadku określonych problemów”.
Być może największą przeszkodą we wdrażaniu bezpieczniejszych rozwiązań w zakresie blokowania była formalna różnica między matematycznym i inżynierskim podejściem do modelowania ES. Matematycy postrzegają rozwiązanie ES jako jedno z wielu przybliżeń, które przy odpowiednich założeniach zmierzają do dokładnego rozwiązania. Natomiast w praktyce inżynierskiej modelowanie ES jest samodzielnym narzędziem projektowym, które informuje, jak rzeczywisty obiekt będzie się zachowywał po zbudowaniu. Szeregowi inżynierowie często dowiadują się o ES-ach w najlepszym wypadku na kursach, gdzie zwykle nie ma mowy o problematycznych modyfikacjach. Hughes przytacza anegdotę, w której firma zajmująca się modelowaniem odmówiła zakupu nowszego oprogramowania, ponieważ dawało ono inne wyniki niż NASTRAN, a klienci twierdzili, że rozwiązanie NASTRAN jest dokładne i prawidłowe (dopiero dzięki inżynierii wstecznej projektanci nowego oprogramowania uzyskali wyniki takie, jakie dawał NASTRAN.)
Wyniki przewidywane dzięki ES rzeczywiście mogą się różnić od obserwowanych w praktyce. Powodami bywają „przestępstwa wariacyjne”, ograniczenia podstawowych modeli matematycznych, wykluczanie mało znaczących funkcji z symulacji oraz zastąpienia skończonością pojawiających się w PDE problemów z nieskończonością. Dzieje się tak na przykład we wstępnych badaniach dużych elementów samolotu, takich jak kadłuby i skrzydła. Inżynierowie muszą wykorzystać wyniki wcześniejszych eksperymentów, aby „dostroić” moc wyjściową ES, zanim będą mogli ustalić, jakie są prawdziwe przewidywania. Taka zgromadzona wiedza jest niezbędna przy interpretacji wyników ES dla nowych projektów, które nie zostały jeszcze praktycznie przetestowane.
Badanie wytrzymałości mniejszych części, takich jak uchwyty i złącza, bywa trudniejszym problemem, ponieważ często nie ma dostępnych danych fizycznych, na których podstawie można by dokonać „dostrojenia”. W roku 2022 w ramach zadania, dotyczącego badania pęknięć, rozesłanego przez dużą firmę z branży lotniczej i kosmicznej do czterech organizacji stosujących dotychczasowe kody, stwierdzono, że wyniki uzyskane przez trzy z nich znacząco odbiegały od prawdziwych, ustalonych eksperymentalnie efektów. Z obliczeń wynikało, że pęknięcie rośnie znacznie wolniej niż w rzeczywistości, a to prowadziło do założenia niepokojąco dużego marginesu bezpieczeństwa.
Inne tego typu zadania pokazały, że problemem są nie tylko niedokładne kody – często przyjmowano nieprawidłowe uproszczone założenia lub wybierano niewłaściwy rodzaj elementu z mnóstwa dostępnych odmian pierwotnego trójkąta lub czworoboku. Takie błędy mogą być kosztowne: wspomniane wcześniej zawalenie się w 1991 roku norweskiej platformy wiertniczej spowodowało szkody na kwotę ponad 1,6 mld dolarów. Uchybień w symulacji doszukano się także w przypadku problemów związanych z eksploatacją i pęknięciami części myśliwca F-35, co przyczyniło się do opóźnień i przekroczenia kosztów. Ogólnie rzecz biorąc, im mniejszą pewność można przypisać wynikom obliczeń, tym częściej należy przeprowadzać droższe kontrole.
Problem oszacowania wiarygodności symulacji może wydawać się beznadziejny. Jeśli nie znamy dokładnego rozwiązania dotyczącego komputerowego modelu na przykład części samolotu, jak możemy określić błąd w dowolnym przybliżonym rozwiązaniu? Jednak wiemy coś o rozwiązaniu – to mianowicie, że spełnia ono równania różniczkowe cząstkowe dla obiektu. Nie możemy rozwiązać PDE, ale możemy z nich skorzystać, aby sprawdzić, jak dobrze działa proponowane rozwiązanie – jest to znacznie łatwiejszy problem. Jeśli do PDE „podłączymy” nieznane dokładne rozwiązanie, otrzymamy po prostu zero. Przybliżone rozwiązanie da nam „resztę” (zwykle symbolizuje ją R), a więc miarę tego, jak dobre jest to rozwiązanie.
Co więcej, ponieważ obiekt jest modelowany za pomocą elementów skończonych, które mogą odkształcać się tylko w określony sposób, obliczone naprężenia nie będą się zmieniać płynnie, jak w rzeczywistości, ale będą przeskakiwać pomiędzy granicami elementów. Skoki te można również obliczyć z rozwiązania przybliżonego. Po obliczeniu reszt i skoków możemy oszacować błąd w przypadku dowolnego elementu, korzystając z technik, które Babuška i Werner C. Rheinboldt z University of Pittsburgh wraz z innymi matematykami zaczęli rozwijać pod koniec lat 70. Od tego czasu opracowano także inne strategie szacowania błędów badań ES.
Szacowanie błędu jest z paru względów pożądane. Po pierwsze, ponieważ korzystanie z większej liczby mniejszych elementów poprawia dokładność, można tak opracować kod, aby w kolejnych krokach automatycznie generował mniejsze elementy w obszarach, gdzie błąd może być duży. Z analizy matematycznej PDE wynika, że naprężenia szybko rosną w pobliżu narożników i krawędzi, co sprzyja większym błędom. Zamiast ręcznie tworzyć gęstsze siatki w tych krytycznych miejscach, można scedować tę czynność na automat.
Po drugie, szacowany błąd ogólny może pomóc inżynierom ocenić dokładność obliczonych wartości dla wielkości, które ich interesują, takich jak spiętrzenie naprężeń w obszarze krytycznym lub odkształcenie w określonym punkcie. Często inżynierowie chcą, aby błąd mieścił się w określonym zakresie (np. od 2 do 10%, w zależności od miejsca). Niestety, w przypadku większości algorytmów błąd jest przeceniany lub niedoceniany, dlatego trudno jest określić jego właściwy zakres. Tego aspektu dotyczą aktualne badania. Mimo to gdyby oszacowano błąd w przypadku norweskiej platformy wiertniczej, na pewno zaalarmowałoby to inżynierów korzystających z ES.
Lepszym sposobem oszacowania błędu ogólnego, czyli oceny wiarygodności uzyskanego rozwiązania, jest zastosowanie innego podejścia do MES: tzw. udoskonalenia p, opracowanego po raz pierwszy przez inżyniera Barnę Szabó z Washington University w St. Louis w latach 70. Zwykły sposób zwiększania dokładności zwany udoskonaleniem h, polega na sukcesywnym zmniejszaniu szerokości h typowego elementu. Aby uzyskać udoskonalenie p, trzymamy się tylko jednej siatki, ale zwiększamy dokładność, umożliwiając każdemu trójkątowi odkształcanie się na dodatkowe sposoby. W pierwszym kroku metoda pozwala na przekształcenie prostej w dowolnym trójkącie w parabolę, a następnie krok po kroku krzywe stają się coraz bardziej złożone. Modyfikacja ta daje każdemu elementowi większe pole manewru, dzięki czemu na każdym etapie powstaje lepsze dopasowanie do kształtu rozwiązania. Matematycznie proces ten sprowadza się do zwiększenia stopnia p podstawowych wielomianów we wzorach algebraicznych różnych rodzajów krzywych.
Jak pokazali Babuška i jego zespół (do którego także należałem), udoskonalenie p prowadzi do dokładnego rozwiązania PDE szybciej niż tradycyjna metoda h dla szerokiej klasy problemów. Udowodniliśmy też matematycznie, że wersja p jest wolna od problemów z blokowaniem, więc nie wymaga żadnych modyfikacji stosowanych w metodzie h. Co więcej, okazuje się, że sekwencja modyfikowanych kształtów zapewnia łatwy i pewny sposób oceny niezawodności.
Zniechęcające jest jednak to, że żadna metoda oceny niezawodności – ani p, ani h – nie odgrywa znaczącej roli w starszych kodach z lat 70. stosowanych do dziś. Powodem jest zapewne ich zaprojektowanie i zwyczajowe utrwalenie przed pojawieniem się nowych propozycji, wśród których wyróżnia się program StressCheck oparty na wersji p i zapewniający oszacowanie wiarygodności.
Takie oszacowanie oferuje dodatkową korzyść, gdy dostępne są wyniki praktycznych eksperymentów: możliwość oceny różnicy między fizyczną rzeczywistością a PDE użytymi do jej modelowania. Jeśli wiemy, że analiza MES jest dokładna, ale ogólny błąd jest nadal duży, możemy zacząć korzystać z bardziej złożonych modeli opartych na fizyce, w których nie obowiązuje już proporcjonalność – aby zmniejszyć wspomnianą różnicę. Ideałem jest bowiem możliwość weryfikacji każdego podstawowego modelu matematycznego w zestawieniu z rzeczywistością.
Pojawienie się sztucznej inteligencji prawdopodobnie zmieni praktykę stosowania symulacji komputerowych, które przede wszystkim staną się bardziej dostępne. Wspólnym celem komercyjnych programów SI jest „demokratyzacja” MES i udostępnienie jej użytkownikom dysponującym niewielką wiedzą specjalistyczną w tej dziedzinie. Na przykład zautomatyzowane chatboty lub wirtualni asystenci mogą ułatwić przeprowadzanie symulacji. W zależności od tego, jak gruntownie przeszkolone są takie programy, mogą stanowić cenne źródło informacji, szczególnie dla początkujących inżynierów. W najlepszym wypadku wirtualny asystent odpowie na pytania zadane w zwykłym języku, niekoniecznie technicznym lub sformalizowanym, i pomoże użytkownikowi dokonać wyboru spośród często szerokiej gamy dostępnych elementów, zapewniając jednocześnie odpowiednie powiadomienia o wątpliwych matematycznie modyfikacjach.
Inna przydatność SI wiąże się z generowaniem siatek, które bywa kosztowne, gdy wykonuje je człowiek, szczególnie w przypadku drobnych siatek niezbędnych w pobliżu narożników, krawędzi, wierzchołków pęknięć i niektórych innych elementów. Matematycy sformułowali dokładne zasady projektowania siatek w takich obszarach – zarówno w dwóch, jak i w trzech wymiarach. Praktyczne korzystanie z tych zasad bezpośrednio przez człowieka może być bardzo trudne, ale dość łatwe dla SI. Przyszłe kody będą umożliwiać automatyczną identyfikację obszarów o dużym naprężeniu i generowanie odpowiedniej siatki.
Ambitniejsze zadanie polega na całkowitym zastąpieniu analizy ES przez wykorzystanie uczenia maszynowego do rozwiązywania problemów PDE. Z grubsza pomysł sprowadza się do wytrenowania sieci neuronowej tak, aby minimalizowała resztę R, konstruując w ten sposób serię coraz dokładniejszych przewidywań przemieszczeń dla danego zestawu obciążeń. Metoda ta słabo sprawdza się w przypadku problemów z pęknięciami ze względu na duże naprężenia zlokalizowane w pobliżu wierzchołków pęknięć, ale badacze ustalili, że po uwzględnieniu informacji o dokładnym rozwiązaniu (na przykład z wykorzystaniem prac matematycznych Kondratiewa) metoda będzie skuteczna.
Wśród wielu następstw rozwoju sztucznej inteligencji wyraźnie na uboczu jest istotny dla ogółu tych następstw problem wiarygodności obliczeń. Warto w związku z tym zwrócić uwagę na stawiane przez NASA wymagania dotyczące tej wiarygodności. Obejmują one wykazanie, m.in. poprzez estymację błędu, że leżąca u podstaw fizyka jest uwzględniana przy modelowaniu sytuacji z życia codziennego oraz że przybliżenia, takie jak rozwiązania ES, mieszczą się w akceptowalnym zakresie prawdziwego rozwiązania PDE.
NASA po raz pierwszy skodyfikowała te wymagania w specjalnym kompendium – w odpowiedzi na katastrofę promu kosmicznego Columbia. Perspektywa rosnącej hermetyczności wiedzy – ze względu na postępującą specjalizację – także powinna być sygnałem ostrzegawczym. Jeśli więc mamy ufać wynikom symulacji dostarczanym przez SI, należy wdrożyć niezawodne zabezpieczenia. Takie zabezpieczenia są już dostępne dzięki postępowi matematyki. Musimy uwzględnić je we wszystkich aspektach symulacji numerycznej, aby zapewnić bezpieczeństwo lotnictwa i innych przedsięwzięć inżynierskich w coraz bardziej wymagającym świecie.
***
Manil Suri jest profesorem matematyki na University of Maryland w hrabstwie Baltimore i autorem książki The Big Bang of Numbers: How to Build the Universe Using Only Math (W. W. Norton, 2022).