أكثر

طبقة OpenLayers 2.11 WMS في الإسقاط المخصص


أنا أستخدم OpenLayers 2.11 من هنا http://cdnjs.com/libraries/openlayers وأحاول عرض طبقة WMS. إنه في الإسقاط 3301 لذلك يتم تعريف الإسقاط على النحو التالي:

proj4.defs ("EPSG: 3301"، "+ proj = lcc + lat_1 = 59.33333333333334 + lat_2 = 58 + lat_0 = 57.51755393055556 + lon_0 = 24 + x_0 = 500000 + y_0 = 6375000 + ellps = GRS80 + towgs84 = 0،0 ، 0،0،0،0،0 + وحدات = م + لا توجد بيانات ") ؛ var الإسقاط = OpenLayers.Project جديد ('EPSG: 3301') ؛

وطبقة WMS وخريطة مثل هذا:

var bounds = OpenLayers.Bounds الجديدة (370753.1145 ، 6382922.7769 ، 739245.6000 ، 6624811.0577) ؛ خيارات var = {maxExtent: bounds، maxResolution: 2601.4538070271437، الإسقاط: الإسقاط، الوحدات: 'm'}؛ map = new OpenLayers.Map ("خريطة" ، خيارات) ؛ var base = new OpenLayers.Layer.WMS ("Maa / ameti aluskaart"، "http://kaart.maaamet.ee/wms/alus؟"،{ الطبقات: 'MA-ALUS' ، الإصدار: '1.1.1' ، 'srs': projection})؛ map.addLayer (قاعدة) ؛

ولكن لا يوجد طلب على الإطلاق مع إصدار 2.11 من OpenLayers. مع OpenLayers 2.12 يتم عرضه ، لكني مهتم بكيفية إظهار WMS في إصدار OpenLayers 2.11 الأقدم.


فقط أضف هذا js من cdn:

https://cdnjs.cloudflare.com/ajax/libs/proj4js/1.1.0/proj4js-combined.js

واستخدم الكود التالي:

var projection = new OpenLayers.Project ("EPSG: 3301") ؛ var bounds = OpenLayers.Bounds الجديدة (370753.1145 ، 6382922.7769 ، 739245.6000 ، 6624811.0577) ؛ خيارات var = {maxExtent: bounds، maxResolution: 2601.4538070271437، الإسقاط: الإسقاط، الوحدات: 'm'}؛ map = new OpenLayers.Map ("خريطة" ، خيارات) ؛ var base = new OpenLayers.Layer.WMS ("Maa / ameti aluskaart"، "http://kaart.maaamet.ee/wms/alus؟"،{ الطبقات: 'MA-ALUS' ، الإصدار: '1.1.1' ، 'srs': projection})؛ map.addLayer (قاعدة) ؛ map.setCenter (OpenLayers.LonLat الجديد (25.567422 ، 58.885704). تحويل (OpenLayers.Project ("EPSG: 4326") ، الإسقاط) ، 2) ؛

انظر هذا المثال: http://jsfiddle.net/expedio/ccp9L6gv/


تشغيل تطبيق ASP في IE مع OpenLayers - إعادة توجيه طلبات التجانب إلى خادم ويب ASP؟

أقوم حاليًا بتطوير تطبيق ASP ، والذي يعمل على خادم تطوير ASP.NET.

عندما أقوم بإحضار صفحة معينة في IE (تحتوي على خريطة OpenLayers عليها) ، في بعض الأحيان لا يتم تحميل المربعات. عندما يحدث هذا ، لاحظت أن فتح علامة تبويب أخرى والانتقال إلى عنوان المربع (أو حتى ، على سبيل المثال ، Google) ينتج عنه "خطأ في الخادم في تطبيق" / MyApp ". // خطأ HTTP 400 - طلب غير صالح // معلومات الإصدار: يتم عرض صفحة ASP.NET Development Server 9.0.0.0 ".

لسبب ما ، يبدو أن IE يوجه طلب الويب المتجانب (أو Google) إلى خادم الويب ASP بدلاً من الإنترنت بشكل عام. أي فكرة كيف يمكنني إيقاف هذا؟

تحديث: هذه بالتأكيد مشكلة IE. على الرغم من أن التطبيق ليس مكتوبًا لمتصفح Firefox ، فقد تمكنت من تحميل الصفحة المعنية ولا توجد علامة على وجود المشكلة.

تحديث: كما هو مطلوب ، إليك JS خصيصًا لتحميل طبقة الخريطة:


نظرة عامة على مواصفات منتج SRTM X-SAR

  • يمثل SRTM X-SAR DEM نموذجًا للسطح الرقمي (DSM): هذا يعني أنه لا يمثل سطح الأرض العاري ، بل يمثل الطبقة العليا من سطح الأرض كما يُرى من الفضاء. يمكن أن تساهم الستائر أو الأشياء التي من صنع الإنسان أيضًا في قيم ارتفاع الخلايا الفردية.
  • إصدار 'SRTM X-SAR 10 ° Regional Mosaics' هو أحدث إصدار تمت إعادة معالجته وتغليفه من المنتج الأصلي: تم دمج بلاط 'SRTM X-SAR 15' الأصلي ، الذي تم إصداره لأول مرة في عام 2001 ، في بلاط 10 درجات وتحويله من تنسيق DTED إلى تنسيق GeoTIFF من أجل توفير مجموعة البيانات المثيرة للاهتمام هذه بطريقة سهلة الاستخدام وحالة. شكل الفن. لمزيد من المعلومات حول تاريخ إصدار SRTM X-SAR DEM ، راجع فصل تنزيل الفسيفساء الإقليمية SRTM X-SAR 10 °.

دقة مارك ألماني

بكسل واحد من SRTM X-SAR DEM بدقة 1 × 1 ثانية قوسية على الأرض. المراسلات المترية لهذه القيمة تعتمد على خط العرض وتساوي تقريبًا 30 م × 30 م. يتم توفير قيم الارتفاع كأرقام صحيحة على فترات 1 متر.

لا توجد فراغات في البيانات ناتجة عن منطق المعالجة الأصلي المطبق وقيمة NoData التي تبلغ -32767 تُنسب إليها. كما هو معتاد ، تكون هذه البيكسلات متجاورة مفردة أو قليلة ، والتي يمكن إقحامها بسهولة باستخدام برامج معالجة الصور الجغرافية القياسية.

لم يتم تحرير DEMs فيما يتعلق بالسواحل والمسطحات المائية. لذلك ، قد لا تكون الخطوط الساحلية محددة جيدًا وقد لا تكون المسطحات المائية مسطحة تمامًا.

يتم تعريف مواصفات المنتج المتعلقة بدقة منتجات SRTM X-SAR 25m DEM على النحو التالي:

  • الدقة الأفقية المطلقة: CE90 +/- 20m (خطأ دائري عند مستوى ثقة 90٪)
  • الدقة الأفقية النسبية: CE90 +/- 15m (خطأ دائري عند مستوى ثقة 90٪)
  • الدقة الرأسية المطلقة: VE90 +/- 16m (خطأ عمودي عند مستوى ثقة 90٪)
  • الدقة الرأسية النسبية: VE90 +/- 6m (خطأ عمودي عند مستوى ثقة 90٪)

تغطية مارك ألماني

تم اختيار مدار مهمة SRTM بطريقة تمكن أداة SIR-C الأمريكية من تغطية كل كتلة اليابسة بين 57 درجة جنوبا و 60 درجة شمالا مرة واحدة على الأقل. على عكس C-band SAR ، لم يكن لدى X-band SAR قدرة توجيه وبالتالي لا يمكن تشغيلها في وضع ScanSAR. أيضًا ، للاستفادة من دقة أعلى ، كانت مساحة X-SAR أضيق بمقدار 50 كم بشكل كبير من نطاق ScanSAR الذي يبلغ عرضه 225 كم لأداة SIR-C. هذا هو سبب وجود فجوات حتمية بين المسارات الأرضية الفردية لجهاز X-SAR. هذه الفجوات تضيق مع زيادة خط العرض. الثغرات الأخرى هي نتيجة حركة المكوك التي تسببها مناورات المدار ، والتي لم تتمكن خلالها أجهزة الرادار من التسجيل. في المجموع ، غطت X-SAR خلال المهمة مساحة تبلغ حوالي 112 مليون كيلومتر مربع ، منها 64 مليون كيلومتر مربع كانت مساحة سطح الأرض. هذا يتوافق مع ما يقرب من 43 في المائة من مساحة اليابسة في العالم.

تغطية الأرض العالمية لـ SRTM X-SAR DEM

خريطة خطأ الارتفاع

إلى جانب معلومات الارتفاع ، تم أيضًا حساب مستوى الثقة (خريطة خطأ الارتفاع ، HEM) لكل بكسل. تم تقديره إحصائيًا من خلال أخذ وحدات البكسل المجاورة في الاعتبار وهو في الأساس انعكاس لاستقرار قيم الطور وخط الأساس (أي الموقع النسبي للهوائيين). وبالتالي يصف HEM الدقة بالنسبة للجوار. البيانات المرجعية مطلوبة لتحديد الدقة المطلقة.

هيكل ملف المنتج لإصدار "SRTM X-SAR 10 ° الفسيفساء الإقليمية"

يتم تسليم الفسيفساء الإقليمية SRTM X-SAR 10 ° بتنسيق مضغوط مسطح بدون مجلدات فرعية داخلية. يحتوي كل ملف .zip على الطبقات التالية:

  1. نموذج الارتفاع الرقمي (DEM)
  2. مخطط خطأ الارتفاع (HEM)
  3. كويك لوك (صورة بابوا نيو غينيا)
  4. QuickLook (تراكب kmz)
  5. مستند تمهيدي يحتوي على a.o. معلومات الترخيص

نوع بيانات إصدار 'SRTM X-SAR 10 ° للفسيفساء الإقليمية'

ملفات DEM و HEM ذات تنسيق ملف GeoTIFF. يتم تطبيق الضغط على مستوى الملف الفردي ، وليس على المستوى المضغوط.

  • النوع: عدد صحيح موقّع 16 بت (Int16)
  • الضغط: انكماش مع المتنبئ 2
  • تجانب
  • لمحات عامة عن 2/4/8/16/32 مع كتل بحجم 256 × 256
  • العرض: جغرافي (خط الطول / العرض) ، WGS84 (EPSG: 4326)

طبقة OpenLayers 2.11 WMS في الإسقاط المخصص - نظم المعلومات الجغرافية

هذا الوصف للأنشطة التي بدأت من خلال مشروع تكنولوجيا الكمبيوتر التابع لوزارة التعليم الإقليمية في ألبرتا ، كندا ، يغطي فترة السنتين التي تبدأ مع إنشاء المشروع من قبل وزارة التعليم في ألبرتا في أكتوبر 1981. وتشمل الأنشطة الموضحة ما يلي: (1) إنشاء مكتب التربية ...

جيانغ ، واي يانغ ، سي هوانغ ، كيو لي ، ج. صن ، م.

سعى علماء الجيولوجيا جاهدًا لاكتشاف المبادئ والأنماط المحتملة المخبأة داخل البيانات الضخمة المتزايدة باستمرار من أجل الاكتشافات العلمية. لتحقيق هذا الهدف بشكل أفضل ، هناك حاجة إلى موارد حوسبة أكثر قدرة لمعالجة البيانات الضخمة وتحليلها وتصورها (Ferreira et al.، 2003 Li et al.، 2013). لا تستطيع تقنيات الحوسبة الحالية القائمة على وحدة المعالجة المركزية مواجهة تحديات الحوسبة على الفور بسبب زيادة كمية مجموعات البيانات من مجالات مختلفة ، مثل وسائل التواصل الاجتماعي ، ومراقبة الأرض ، والاستشعار البيئي (Li et al. ، 2013). وفي الوقت نفسه ، فإن موارد الحوسبة المستندة إلى وحدة المعالجة المركزية والتي يتم تنظيمها على شكل مجموعة أو كمبيوتر عملاق مكلفة. في السنوات العديدة الماضية مع نضوج التكنولوجيا القائمة على GPU في كل من القدرة والأداء ، ظهرت الحوسبة القائمة على GPU كنموذج حوسبة جديد. مقارنة بمعالج الحوسبة التقليدية ، فإن وحدة معالجة الرسومات الحديثة ، باعتبارها معالجًا دقيقًا بديلًا مقنعًا ، تتمتع بقدرة معالجة متوازية عالية وفعالية من حيث التكلفة والكفاءة (أوينز وآخرون ، 2008) ، على الرغم من أنها مصممة في البداية للعرض الرسومي في أنبوب التصور. يقدم هذا العرض التقديمي تقريرًا عن إطار عمل حوسبة GPU موزع لدمج الحوسبة المستندة إلى GPU في بيئة موزعة. ضمن هذا الإطار ، 1) لكل كمبيوتر فردي ، يمكن استخدام موارد الحوسبة لكل من GPU والمعتمدة على وحدة المعالجة المركزية بشكل كامل لتحسين أداء تصور ومعالجة البيانات الكبيرة 2) داخل بيئة شبكة ، يمكن استخدام مجموعة متنوعة من أجهزة الكمبيوتر لبناء كمبيوتر فائق افتراضي لدعم الحوسبة المستندة إلى وحدة المعالجة المركزية والمعتمدة على GPU في بيئة الحوسبة الموزعة 3) تُستخدم وحدات معالجة الرسومات ، كجهاز مستهدف رسومي محدد ، لتحسين كفاءة العرض بشكل كبير في التصور الجغرافي الموزع ، خاصة بالنسبة لـ 3D / التصور رباعي الأبعاد. الكلمات المفتاحية: التصور الجغرافي ، GISc ، الدراسات الزمانية المكانية المرجع: 1. Ferreira de Oliveira، M.C، & Levkowitz، H. (2003). من استكشاف البيانات المرئية إلى استخراج البيانات المرئية: مسح. التصور والرسومات الحاسوبية ، IEEE

أوتكو ، س. ليستينجي ، ج. سلامة ، م.

في هذه الورقة ، يتم استعراض التطورات في تكنولوجيا الكمبيوتر الرقمية منذ أوائل الخمسينيات بإيجاز ، ويتم تحديد التوازي الموجود بين هذه التطورات والتطورات في إجراءات التحليل والتصميم للهندسة الإنشائية. يتم فحص الاتجاهات الحديثة في تكنولوجيا الكمبيوتر الرقمي من أجل إثبات حقيقة أن المعالجة الموزعة هي الآن فلسفة مقبولة لمزيد من التطويرات. يتم تقييم تأثير ذلك على ممارسات التحليل والتصميم للهندسة الإنشائية من خلال فحص هذه الممارسات أولاً من وجهة نظر معالجة البيانات لتحديد العمليات الرئيسية وقواعد البيانات ، ثم ملاءمتها لخصائص المعالجة الموزعة. تتم مناقشة مزايا وعيوب الفلسفة الحالية في تعليم المهندسين الإنشائيين ويتم وضع توقعات للعلاقات بين الصناعة والأوساط الأكاديمية في بيئة المعالجة الموزعة للتحليل والتصميم الهيكلي. تم وصف تجربة مستمرة للحوسبة الموزعة في بيئة جامعية.

أبوت ، بي بي أبوت ، آر أبوت ، تي دي أبيرناثي ، إم آر أكيرنيز ، إف أكلي ، ك آدمز ، سي آدمز ، تي أديسو ، بي أديكاري ، آر إكس أديا ، في بي أفيلدت ، سي أجاثوس ، إم. Aggarwal، N. Aguiar، OD Aiello، L. Ain، A. Allen، B. Allocca، A. Altin، PA Anderson، SB Anderson، WG Arai، K. Araya، MC Arceneaux، CC Areeda، JS Arnaud، N. Arun، KG Ascenzi، S. Ashton، G. Ast، M. Aston، SM Astone، P. Aufmuth، P. Aulbert، C. Babak، S. Bacon، P. Bader، MKM Baker، PT Baldaccini، F. Ballardin، G. Ballmer، SW Barayoga، JC Barclay، SE Barish، BC Barker، D. Barone، F. Barr، B. Barsotti، L. Barsuglia، M. Barta، D. Bartlett، J. Bartos، I. Bassiri، R. باستي ، إيه باتش ، جي سي باون ، سي بافيجادا ، في بازان ، إم بيجر ، إم بيل ، إيه إس بيرجر ، بي كيه بيرجمان ، جي بيري ، سي بي إل بيرسانيتي ، دي برتوليني ، إيه بيتزويزر ، جيه بهاجوات ، S. Bhandare، R. Bilenko، IA Billingsley، G. Birch، J. Birney، R. Biscans، S. Bisht، A. Bitossi، M. Biwer، C. Bizouard، MA Blackbur n، JK Blair، CD Blair، DG Blair، RM Bloemen، S. Bock، O. Boer، M. Bogaert، G. Bogan، C. Bohe، A. Bond، C. Bondu، F. Bonnand، R. Boom، بكالوريوس بورك ، ر.بوشي ، ف.بوز ، س.بوفانايس ، واي.بوزي ، أ.براداشيا ، سي برادي ، بي آر براغينسكي ، في بي برانشسي ، إم براو ، جي بريانت ، تي بريليت ، إيه برينكمان ، إم. Brisson، V. Brockill، P. Broida، JE Brooks، AF Brown، DA Brown، DD Brown، NM Brunett، S. Buchanan، CC Buikema، A. Bulik، T. Bulten، HJ Buonanno، A. Buskulic، D. Buy ، C. Byer، RL Cabero، M. Cadonati، L. Cagnoli، G. Cahillane، C. Calderón Bustillo، J. Callister، T. Calloni، E. Camp، JB Cannon، KC Cao، J. Capano، CD Capocasa، E. Carbognani، F. Caride، S. Casanueva Diaz، J. Casentini، C. Caudill، S. Cavaglià، M. Cavalier، F. Cavalieri، R. Cella، G. Cepeda، CB Cerboni Baiardi، L. Cerretani، G . سيزاريني ، إي تشامبرلين ، إس جيه تشان ، إم تشاو ، إس تشارلتون ، بي تشاساندي-موتين ، إي تشيزيبورو ، بي دي تشين ، إتش واي تشين ، واي تشينج ، سي تشينكاريني ، إيه تشيوممو ، A. Cho، HS Cho، M. Chow، JH Christensen، N. Chu، Q. Chua، S. Chung، S. Ciani، G. Clara، F. Clark، JA Cleva، F. Coccia، E. Cohadon، P .-F. Colla، A. Collette، CG Cominsky، L. Constancio، M. Conte، A. Conti، L. Cook، D. Corbitt، TR Cornish، N. Corsi، A. Cortese، S. Costa، ​​CA Coughlin، MW Coughlin، إس بي كولون ، J.-P. كونتري مان ، إس تي كوفيريس ، بي كوان ، إي إي كاورد ، دي إم كاوارت ، إم جي كوين ، دي سي كوين ، آر كريغ ، كيه كريتون ، جي دي إي كريتون ، تي دي كريب ، جي كراودر ، إس جي كومينغ ، إيه كننغهام ، إل كوكو ، E. Dal Canton، T. Danilishin، SL D'Antonio، S. Danzmann، K. Darman، NS Dasgupta، A. Da Silva Costa، ​​CF Dattilo، V. Dave، I. Davier، M. Davies، GS Daw، EJ داي ، آر دي ، إس ديبرا ، ديبريتشيني ، جي ديغالايكس ، جيه دي لورينتيس ، إم ديليجليز ، إس ديل بوزو ، دبليو دينكر ، تي دينت ، تي ديرجاتشيف ، في دي روزا ، آر . DeRosa، RT DeSalvo، R. Devine، RC Dhurandhar، S. Díaz، MC Di Fiore، L. Di Giovanni، M. Di Girolamo، T. Di Lieto، A. Di Pace، S. Di Palma، I. Di Virgilio ، A. Dolique، V. Donovan، F. Dooley، KL Doravari، S. Douglas، R. Downes، TP Drago، M. Drever، RWP Driggers، JC Ducrot، M. Dwyer، SE Edo، TB Edwards، MC Effler، أ.إيجنشتاين ، H.-B. Ehrens، P. Eichholz، J. Eikenberry، SS Engels، W. Essick، RC Etzel، T. Evans، M. Evans، TM Everett، R. Factourovich، M. Fafone، V. Fair، H. Fairhurst، S. Fan ، X. فانغ ، كيو.فارينون ، S. Farr ، B. Farr ، WM Favata ، M. Fays ، M. Fehrmann ، H. Fejer ، MM Fenyvesi ، E. Ferrante ، I. Ferreira ، EC Ferrini ، F. Fidecaro ، F. Fiori، I. Fiorucci، D. Fisher، RP Flaminio، R. Fletcher، M. Fournier، J.-D. فراسكا ، إس فراسكوني ، إف فراي ، زد.فريز ، إيه فراي ، آر فراي ، فريتشيل ، بي.فرولوف ، في في فولدا ، بي فيفي ، إم جابارد ، هاج جير ، جي آر جامايتوني ، إل.جاونكار ، SG Garufi ، F. Gaur ، G. Gehrel ، N. Gemme ، G. Geng ، P. Genin ، E. G Chennai ، A. George ، J. Gergely ، L. Germain ، V. Ghosh ، Abhirup Ghosh ، Archisman Ghosh ، S. Giaime، JA Giardina، KD Giazotto، A. Gill، K. Glaefke، A. Goetz، E. Goetz، R. Gondan، L. González، G. Gonzalez Castro، JM Gopakumar، A. Gordon، NA Gorodetsky، ML Gossan، SE Gosselin، M. Gouaty، R. Grado، A. Graef، C. Graff، PB Granata، M. Grant، A. Gras، S. Gray، C. Greco، G. Green، AC Groot، P. Grote ، H. Grunewald ، S. Guidi ، GM Guo ، X. Gupta ، A. Gupta ، MK Gushwa ، KE Gustafson ، EK Gustafson ، R. Hacker ، JJ Hall ، BR Hall ، ED Hammond ، G. Haney ، M. Hanke ، إم إم هانكس ، جيه هانا ، سي هانسون ، جيه هاردويك ، تي هارمز ، جيه هاري ، جي إم هاري ، آي دبليو هارت ، إم جي هارتمان ، إم تي هاستر ، سي- جي. هوجيان ، ك.هايدمان ، إيه هينتز ، إم سي هايتمان ، إتش هيلو ، بي هيمنج ، جي هندري ، إم هينج ، إس هينج ، جي هنري ، جيه هيبتونستول ، إيه دبليو هورس ، إم هيلد ، إس. هوك ، D. Hofman ، D. Holt ، K. Holz ، DE Hopkins ، P. Hough ، J. Houston ، EA Howell ، EJ Hu ، YM Huang ، S. Huerta ، EA Huet ، D. Hughey ، B. Husa ، S. Huttner، SH Huynh-Dinh، T. Indik، N. Ingram، DR Inta، R. Isa، HN Isac، J.-M. Isi، M. Isogai، T. Iyer، BR Izumi، K. Jacqmin، T. Jang، H. Jani، K. Jaranowski، P. Jawahar، S. Jian، L. Jiménez-Forteza، F. Johnson، WW Jones، دي جونز ، آر. يونكر ، آر جي جي جو ، إل كيه ، هاريس كالاغاتجي ، السيرة الذاتية كالوجيرا ، في كانداسامي ، إس كانغ ، جي كانر ، جي بي كاباديا ، إس جي كاركي ، إس. كارفينين ، كانساس كاسبرزاك ، إم كاتسافونيديس ، إي . Katzman، W. Kaufer، S. Kaur، T. Kawabe، K. Kéfélian، F. Kehl، MS Keitel، D. Kelley، DB Kells، W. Kennedy، R. Key، JS Khalili، FY Khan، I. Khan ، S. Khan ، Z. Khazanov ، EA Kijbunchoo ، N. Kim ، Chi-Woong Kim ، Chunglee Kim ، J. Kim ، K. Kim ، N. Kim ، W. Kim ، Y.-M. Kimbrell، SJ King، EJ King، PJ Kissel، JS Klein، B. Kleybolte، L. Klimenko، S. Koehlenbeck، SM Koley، S. Kondrashov، V. Kontos، A. Korobko، M. Korth، WZ Kowalska، I. Kozak، DB Kringel، V. Krishnan، B. Królak، A. Krueger، C. Kuehn، G. Kumar، P. Kumar، R. Kuo، L. Kutynia، A. Lackey، BD Landry، M. Lange، J. Lantz، B. Lasky، PD Laxen، M. Lazzaro، C. Leaci، P. Leavey، S. Lebigot، EO Lee، CH Lee، HK Lee، HM Lee، K. Lenon، A. Leonardi، M. Leong، JR Leroy، N.Litendre، N. Levin، Y. Lewis، JB Li، TGF Libson، A. Littenberg، TB Lockerbie، NA Lombardi، AL London، LT Lord، JE Lorenzini، M. Loriette، V. Lormand، M. Losurdo ، G. Lough، JD Lück، H. Lundgren، AP Lynch، R. Ma، Y. Machenschalk، B. MacInnis، M. Macleod، DM Magaña-Sandoval، F. Magaña Zertuche، L.Magee، RM Majorana، E. ماكسيموفيتش ، آي مالفيزي ، في مان ، إن مانديك ، في مانجانو ، في مانسيل ، جي إل مانسكي ، إم مانتوفاني ، إم مارشيسوني ، إف ماريون ، إف ماركا ، إس.ماركا ، زد مار kosyan، AS Maros، E. Martelli، F. Martellini، L. Martin، IW Martynov، DV Marx، JN Mason، K. Masserot، A. Massinger، TJ Masso-Reid، M. Mastrogiovanni، S. Matichard، F. Matone ، L. Mavalvala ، N. Mazumder ، N. McCarthy ، R. McClelland ، DE McCormick ، ​​S. McGuire ، SC McIntyre ، G. McIver ، J. McManus ، DJ McRae ، T. McWilliams ، ST Meacher ، D. Meadors ، GD Meidam، J. Melatos، A. Mendell، G. Mercer، RA Merilh، EL Merzougui، M. Meshkov، S. Messenger، C.Mesick، C. Metzdorff، R. Meyers، PM Mezzani، F.Miao، H.Michel ، C. Middleton، H. Mikhailov، EE Milano، L. Miller، AL Miller، A. Miller، BB Miller، J. Millhouse، M. Minenkov، Y. Ming، J. Mirshekari، S. Mishra، C. Mitra، S. Mitrofanov ، VP Mitselmakher ، G.Mittleman ، R. Moggi ، A. Mohan ، M. Mohapatra ، SRP Montani ، M. Moore ، BC Moore ، CJ Moraru ، D. Moreno ، G. Morriss ، SR Mossavi ، K. Mours ، B. Mow-Lowry ، CM Mueller ، G. Muir ، AW Mukherjee ، Arunava Mukherjee ، D. Mukherjee ، S. Mukund ، N. Mu llavey ، A. Munch ، J. Murphy ، DJ Murray ، PG Mytidis ، A. Nardecchia ، I. Naticchioni ، L. Nayak ، RK Nedkova ، K. Nelemans ، G. Nelson ، TJN Neri ، M. Neunzert ، A. Newton ، نغوين ، تي تي نيلسن ، أب نيسانكي ، إس نيتز ، إيه نوسيرا ، إف نولتينج ، دي نورماندين ، مين نوتال ، إل كيه أوبرلينج ، جيه أوشسنر ، إي أوديل ، جيه أويلكر ، إي أوجين ، GH Oh، JJ Oh، SH Ohme، F. Oliver، M. Oppermann، P. Oram، Richard J. O'Reilly، B. O'Shaughnessy، R. Ottaway، DJ Overmier، H. Owen، BJ Pai، A. Pai، SA Palamos، JR Palashov، O. Palomba، C. Pal-Singh، A. Pan، H. Pankow، C. Pannarale، F. Pant، BC Paoletti، F. Paoli، A. Papa، MA Paris، HR Parker ، دبليو باسكوتشي ، د. باسكواليتي ، أ. باساكيتي ، ر. باسويلو ، د. باتريتشيلي ، ب. باتريك ، ز. بيرلستون ، بي إل بيدرازا ، إم. بيدوراند ، آر بيكوسكي ، إل بيلي ، إيه بين ، إس. بيريكا ، إيه بيري ، إل إم فيلبس ، إم بيكسيني ، أو جي بيكوت ، إم بييرجوفاني ، إف بييرو ، في بيلانت ، جي بينارد ، إل بينتو ، آي إم بيتكين ، إم بو ، إم بوجياني ، آر بوبوليزيو ، P. Post، A. Powell، J. Prasad، J. Predoi، V. Prestegard، T. Price، LR Prijatelj، M. Principe، M. Privitera، S. Prix، R. Prodi، GA Prokhorov، L. Puncken، O. Punturo، M. Puppo، P. Pürrer، M. Qi، H. Qin، J. Qiu، S. Quetschke، V. Quintero، EA Quitzow-James، R. Raab، FJ Rabeling، DS Radkins، H. Raffai، P Raja، S. Rajan، C. Rakhmanov، M. Rapagnani، P. Raymond، V. Razzano، M. Re، V.Read، J.Reed، CM Regimbau، T. Rei، L. Reid، S. Reitze، دي إتش ريو ، إتش رييس ، إس دي ريتشي ، إف رايلز ، ك. ريزو ، إم روبرتسون ، إن إيه روبي ، آر روبينيت ، إف روشي ، إيه رولاند ، إل رولينز ، جي جي روما ، في جي رومانو ، آر رومانوف رومي ، ج. ه. روزينسكا ، د. روان ، س. روديجر ، أ. روجي ، ب. رايان ، ك. ساشديف ، س. صادقي ، ت. صادقيان ، إل ساكيلارادو ، إم. سالكوني ، إل. سليم ، م. سالمي ، إف ساماجدار ، أ. ساموت ، إل سانشيز ، إي جيه ساندبيرج ، في ساندين ، بي.ساندرز ، جيه آر ساسولاس ، ب.سولسون ، بي آر سوتر ، أو إي إس سافاج ، آر إل سوادسكي ، إيه شال ، بي شيلينغ ، آر شميدت ، ج. شميدت ، ب. شنابل ، ر. سكوفيلد ، RMS Schönbeck، A. Schreiber، E. Schuette، D. Schutz، BF Scott، J. Scott، SM Sellers، D. Sengupta، AS Sentenac، D. Sequino، V. Sergeev، A. Setyawati، Y. Shaddock، DA Shaffer ، ت. شهريار ، إم إس شالتيف ، إم شابيرو ، ب. شوهان ، بي. شيبرد ، إيه شوميكر ، دي إتش شوميكر ، دي إم سيليز ، ك.سيمنز ، إكس سينياوسكا ، إم سيغ ، دي سيلفا ، إيه دي سينجر ، إيه سينجر ، إل بي سينغ ، أ. سينغ ، آر سينغال ، إيه سينتس ، إيه إم سلاجمولين ، بي جيه جيه سميث ، جي آر سميث ، إن دي سميث ، آر جي إي سون ، إي جي سورازو ، بي سورينتينو ، إف.سوراديب ، تي سريفاستافا ، إيه كيه ستالي ، A. Steinke، M. Steinlechner، J. Steinlechner، S. Steinmeyer، D. Stephens، BC Stone، R. Strain، KA Straniero، N. Stratta، G. Strauss، NA Strigin، S. Sturani، R. Stuver، AL Summerscales، TZ Sun، L. Sunil، S. Sutton، PJ Swinkels، BL Szczepańczyk، MJ Tacca، M. Talukder، D. Tanner، DB Tápai، M. Tarabrin، SP Taracchini، A. Taylor، R. Theeg، T Thirugnanasambandam، MP Thomas، EG Thomas، M. Thomas، P. Tho rne، KA Thrane، E. Tiwari، S. Tiwari، V. Tokmakov، KV Toland، K. Tomlinson، C. Tonelli، M. Tornasi، Z. Torres، CV Torrie، CI Töyrä، D. Travasso، F. Traylor، G. Trifir D.، D. Tringali، MC Trozzo، L. Tse، M. Turconi، M. Tuyenbayev، D. Ugolini، D. Unnikrishnan، CS Urban، AL Usman، SA Vahlbruch، H. Vajente، G. Valdes، G. فان باكل ، إن فان بيوزيكوم ، إم فان دن براند ، جي إف جي فان دين برويك ، سي فاندر هايد ، دي سي فان دير شاف ، إل فان هيجنجن ، جي في فان فيجيل ، إيه إيه فاردارو ، إم فاس ، إس فاسوث ، فولين ، ر. فيتشيو ، أ. فيدوفاتو ، ج.فيتش ، ج.فيتش ، بي جيه فينكاتيسوارا ، ك.فيركيندت ، دي فيترانو ، إف فايسري ، إيه. . Vitale، S. Vo، T. Vocca، H. Vorvick، C. Voss، DV Vousden، WD Vyatchanin، SP Wade، AR Wade، LE Wade، M. Walker، M. Wallace، L. Walsh، S. Wang، G وانج ، إتش وانج ، إم وانج ، إكس وانج ، واي. وارد ، آر إل وارنر ، جيه واس ، إم ويفر ، بي وي ، إل-دبليو. Weinert ، M. Weinstein ، AJ Weiss ، R. Wen ، L. Weßels ، P. Westphal ، T. Wette ، K. Whelan ، JT Whiting ، BF Williams ، RD Williamson ، AR Willis ، JL Willke ، B. Wimmer ، MH Winkler ، W. Wipf، CC Wittel، H. Woan، G. Woehler، J. Worden، J. Wright، JL Wu، DS Wu، G. Yablon، J. Yam، W. Yamamoto، H. Yancey، CC Yu، H . Yvert، M. ZadroŻny، A. Zangrando، L. Zanolin، M. Zendri، J.-P. Zevin، M. Zhang، L. Zhang، M. Zhang، Y. Zhao، C. Zhou، M. Zhou، Z. Zhu، S. J. Zhu، X. Zucker، M. E. Zuraw، S. E. Zweizig، J. LIGO Scientific Collaboration Virgo Collaboration

نُبلغ عن نتائج بحث عميق في السماء بأكملها عن موجات جاذبية دورية من نجوم نيوترونية معزولة في بيانات من تشغيل علمي S6 LIGO. كان البحث ممكنًا بفضل قوة الحوسبة التي قدمها متطوعو مشروع الحوسبة الموزعة Einstein @ Home. لم نعثر على إشارة مرجحة مهمة وقمنا بتعيين الحدود العليا الأكثر صرامة حتى الآن على سعة إشارات موجة الجاذبية من السكان المستهدفين. عند تردد أفضل حساسية إجهاد ، بين 170.5 و 171 هرتز ، قمنا بتعيين حد أعلى للثقة بنسبة 90٪ وهو 5.5 × 10-25 ، بينما في الطرف الأعلى من نطاق التردد لدينا ، حوالي 505 هرتز ، نحقق الحدود العليا ≃10-24 . عند 230 هرتز يمكننا استبعاد المصادر ذات الإهليلجيات أكبر من 10-6 في حدود 100 قطعة من الأرض بقيمة إيمانية لعزم القصور الذاتي الأساسي البالغ 1038 كجم متر مربع. إذا افترضنا أن موجة جاذبية أعلى (أقل) تدور لأسفل ، فإننا نحصر الأجسام الأبعد (الأقرب) على الإهليلجيات الأعلى (الأقل).

مشروع تحسين التنافسية (CIP) هو طلب دوري من خلال وزارة الطاقة الأمريكية والمختبر الوطني للطاقة المتجددة التابع لها. يُمنح مصنعو توربينات الرياح الصغيرة والمتوسطة منحًا بتكلفة مشتركة عبر عملية تنافسية لتحسين تصميماتهم وتطوير عمليات التصنيع المتقدمة وإجراء اختبار التوربينات. تتمثل أهداف CIP في جعل تكلفة طاقة الرياح منافسة لتقنيات التوليد الموزعة الأخرى وزيادة عدد تصميمات توربينات الرياح المعتمدة لمعايير الاختبار الوطنية. تصف ورقة الحقائق هذه برنامج CIP والتمويل الممنوح كجزء من المشروع.

مشروع تحسين التنافسية (CIP) هو طلب دوري من خلال وزارة الطاقة الأمريكية والمختبر الوطني للطاقة المتجددة التابع لها. مشروع تحسين التنافسية (CIP) هو طلب دوري من خلال وزارة الطاقة الأمريكية والمختبر الوطني للطاقة المتجددة التابع لها. يُمنح مصنعو توربينات الرياح الصغيرة والمتوسطة منحًا بتكلفة مشتركة عبر عملية تنافسية لتحسين تصميماتهم وتطوير عمليات التصنيع المتقدمة وإجراء اختبار التوربينات. تتمثل أهداف CIP في جعل تكلفة طاقة الرياح منافسة لتقنيات التوليد الموزعة الأخرى وزيادة عدد تصميمات توربينات الرياح المعتمدة لمعايير الاختبار الوطنية. تصف صحيفة الوقائع Thismore »CIP والتمويل الممنوح كجزء من المشروع. يتم منح مصنعي توربينات الرياح الصغيرة والمتوسطة منحًا مشتركة التكلفة عبر عملية تنافسية لتحسين تصميماتهم وتطوير عمليات التصنيع المتقدمة وإجراء اختبار التوربينات. تتمثل أهداف CIP في جعل تكلفة طاقة الرياح منافسة لتقنيات التوليد الموزعة الأخرى وزيادة عدد تصميمات توربينات الرياح المعتمدة لمعايير الاختبار الوطنية. تصف ورقة الحقائق هذه برنامج CIP والتمويل الممنوح كجزء من المشروع

تاونسند ، جيمس سي ويستون ، روبرت ب. إيدسون ، توماس م.

إطار عمل تحسين التصميم متعدد التخصصات (FIDO) هو بيئة برمجة عامة لأتمتة توزيع مهام الحوسبة المعقدة عبر نظام شبكي من أجهزة كمبيوتر غير متجانسة. على سبيل المثال ، بدلاً من تمرير مشكلة تصميم معقدة يدويًا بين تخصصات تخصصية متنوعة ، يوفر نظام FIDO تفاعلات تلقائية بين مهام الانضباط ويسهل اتصالاتهم. يقوم نظام FIDO بشبكات جميع أجهزة الكمبيوتر المشاركة في نظام الحوسبة غير المتجانسة الموزعة ، بحيث يكون لديهم إمكانية الوصول إلى البيانات المركزية ويمكنهم العمل على أجزاءهم من الحساب الكلي في وقت واحد بالتوازي كلما أمكن ذلك. وبالتالي ، يمكن إجراء كل مهمة حسابية بواسطة أنسب جهاز كمبيوتر. يمكن عرض النتائج عند إنتاجها وتغيير المتغيرات يدويًا لتوجيه العملية. البرنامج معياري من أجل تسهيل الانتقال إلى المشكلات الجديدة: يمكن استبدال الرموز المختلفة لكل وحدة من وحدات الكود الحالية مع تأثير ضئيل أو معدوم على الوحدات الأخرى. تكمن إمكانية الاستخدام التجاري لـ FIDO في القدرة التي توفرها للتنسيق التلقائي للحسابات المتنوعة على نظام شبكي لمحطات العمل وأجهزة الكمبيوتر. على سبيل المثال ، يمكن أن توفر FIDO التنسيق المطلوب لتصميم المركبات أو الإلكترونيات أو لنمذجة الأنظمة المعقدة.

ميروكني ، فهاب أندرسن ، ريد جليش ، ديفيد ف.

يجب أن تعالج الخوارزميات الموزعة والقابلة للتطوير مشاكل الاتصال. نحن نتحرى عن المجموعات المتداخلة ، أو الأقسام الرأسية التي تتقاطع ، من أجل حسابات الرسم البياني. يخزن هذا الإعداد الرسم البياني أكثر مما هو مطلوب ولكنه يوفر بعد ذلك سهولة تنفيذ الخوارزميات المقسمة إلى قمة الرأس. نأمل أن تسمح لنا هذه التقنية بتقليل الاتصال في الحساب على الرسم البياني الموزع. الدافع أعلاه يعتمد على العمل الأخير في الاتصال وتجنب الخوارزميات. محيي الدين وآخرون (SC09) يصمم نواة قوى مصفوفة تؤدي إلى قسم متداخل. Fritzsche et al. (CSC2009) تطوير تجميع متداخل لطريقة شوارتز. كلا الأسلوبين يوسعان التقسيم الأولي مع التداخل. يولد إجراءنا تداخلًا مباشرًا. في الواقع ، تُستخدم طرق شوارتز بشكل شائع للاستفادة من التداخل. في أماكن أخرى ، تعد المجتمعات المتداخلة (Ahn et al، Nature 2009 Mishra et al. WAW2007) الآن نموذجًا شائعًا للهيكل في الشبكات الاجتماعية. لطالما تمت دراستها في الإحصاء (Cole and Wishart، CompJ 1970). نقدم نوعين من النتائج: (1) احتمال مبادلة تقديري و (2) حجم الاتصال لحل PageRank المتوازي (تتبع الارتباط = 0.85) باستخدام طريقة شوارتز المضافة. نسبة الحجم هي مقدار التخزين الإضافي للتداخل (2 يعني أننا نخزن الرسم البياني مرتين). أدناه ، مع زيادة النسبة ، ينخفض ​​احتمال التبادل وحجم اتصال PageRank. «أقل

فولكر ، جاي كيز ، أندرو فراتشيلي ، خوسيه مولينا كابو إيوجو ، بيدرو بيبلز ، ستيفن

تم تصميم وتطوير واختبار لوحات كمبيوتر الطيران أحادية النواة (DD & T) ليتم نقلها في أقمار صناعية صغيرة خلال السنوات القليلة الماضية. في هذا المشروع ، سيتم تصميم كمبيوتر طيران نموذجي كنظام موزع متعدد النواة يحتوي على أربعة معالجات دقيقة تعمل برمز بالتوازي. سيكون كمبيوتر الرحلة هذا قادرًا على أداء مهام حسابية متعددة مكثفة مثل معالجة البيانات الرقمية و / أو التناظرية ، والتحكم في أنظمة المشغل ، وإدارة الكاميرات ، وتشغيل المعالجات الآلية ، والإرسال / الاستقبال من / إلى محطة أرضية. بالإضافة إلى ذلك ، سيتم تصميم كمبيوتر الرحلة هذا ليكون متسامحًا مع الأخطاء من خلال إنشاء اتصال قوي للأجهزة المادية واستخدام نظام تصويت برمجي لتحديد أداء المعالج. سيستفيد مخطط التصويت هذا من العمل المنجز لبرنامج رحلة نظام الإطلاق الفضائي (SLS). سيتم بناء كمبيوتر الرحلة النموذجي بمكونات تجارية خارج الرف (COTS) والتي من المقدر أن تبقى على قيد الحياة لمدة عامين في مدار أرضي منخفض.

Dobrojevi Med ، M. Medjo ، B. Rakin ، M. Sedmak ، A.

تقدم هذه الورقة لمحة عامة عن تطوير حل برمجي جديد لإدارة المشاريع ، مخصص بشكل أساسي للاستخدام في البيئة الصناعية. الشاغل الرئيسي للحل المقترح هو التطبيق في الممارسة الهندسية اليومية في العديد من الشركات الصناعية الموزعة بشكل رئيسي. مع أخذ ذلك في الاعتبار ، تم تكريس عناية خاصة لتطوير الأدوات المناسبة لتتبع وتخزين وتحليل المعلومات حول المشروع ، وفي الوقت المناسب تسليمها إلى أعضاء الفريق المناسبين أو غيرهم من الأشخاص المسؤولين. يعتمد الحل المقترح على الإنترنت ويستخدم نظام LAMP / WAMP (Linux أو Windows - Apache - MySQL - PHP) ، نظرًا لاستقراره وتعدد استخداماته وتكنولوجيا المصدر المفتوح والصيانة البسيطة. يسهل الهيكل المعياري للبرنامج التخصيص وفقًا لاحتياجات العميل المحددة ، مع فترة تنفيذ قصيرة جدًا. وتتمثل مزاياه الرئيسية في الاستخدام البسيط والتنفيذ السريع والصيانة السهلة للنظام والتدريب القصير ومهارات الكمبيوتر الأساسية فقط اللازمة للمشغلين.

الهدف من هذه الورقة هو تقديم نتائج مشروع بحث CNES حول أنظمة الحوسبة الموزعة. كان الغرض من هذا البحث هو دراسة تأثير استخدام تقنيات الكمبيوتر الجديدة في تصميم وتطوير تطبيقات الفضاء المستقبلية. كان الجزء الأول من هذه الدراسة عبارة عن مراجعة حديثة لأنظمة الحوسبة الموزعة. واحدة من الأفكار المثيرة للاهتمام الناشئة عن هذه المراجعة هي مفهوم "الكمبيوتر الافتراضي" الذي يسمح بإخفاء بنية الأجهزة الموزعة من تطبيق البرنامج. يمكن لـ "الكمبيوتر الافتراضي" تحسين أداء النظام من خلال تكييف أفضل بنية (إضافة أجهزة كمبيوتر) مع تطبيق البرنامج دون الحاجة إلى تعديل كود المصدر الخاص به. يمكن أن يقلل هذا المفهوم أيضًا من تكلفة وتقادم بنية الأجهزة. من أجل التحقق من جدوى مفهوم "الكمبيوتر الافتراضي" ، يتم تطوير ممثل نموذج أولي لتطبيق الفضاء الموزع بشكل مستقل عن بنية الأجهزة.

Gordon, Florence S. Gordon, Sheldon P.

Describes the use of computer graphics simulations to enhance student understanding of sampling distributions that arise in introductory statistics. Highlights include the distribution of sample proportions, the distribution of the difference of sample means, the distribution of the difference of sample proportions, and the distribution of sample…

Provides an annotated list of references on computer -oriented projects . Includes information on computers hands-on versus simulations games instruction students' attitudes and learning styles artificial intelligence tutoring and application of spreadsheets. (RT)

Swetnam, T. L. Pelletier, J. D. Merchant, N. Callahan, N. Lyons, E.

Earth science is making rapid advances through effective utilization of large-scale data repositories such as aerial LiDAR and access to NSF-funded cyberinfrastructures (e.g. the OpenTopography.org data portal, iPlant Collaborative, and XSEDE). Scaling analysis tasks that are traditionally developed using desktops, laptops or computing clusters to effectively leverage national and regional scale cyberinfrastructure pose unique challenges and barriers to adoption. To address some of these challenges in Fall 2014 an 'Applied Cyberinfrastructure Concepts' a project -based learning course (ISTA 420/520) at the University of Arizona focused on developing scalable models of 'Effective Energy and Mass Transfer' (EEMT, MJ m-2 yr-1) for use by the NSF Critical Zone Observatories (CZO) project . EEMT is a quantitative measure of the flux of available energy to the critical zone, and its computation involves inputs that have broad applicability (e.g. solar insolation). The course comprised of 25 students with varying level of computational skills and with no prior domain background in the geosciences, collaborated with domain experts to develop the scalable workflow. The original workflow relying on open-source QGIS platform on a laptop was scaled to effectively utilize cloud environments (Openstack), UA Campus HPC systems, iRODS, and other XSEDE and OSG resources. The project utilizes public data, e.g. DEMs produced by OpenTopography.org and climate data from Daymet, which are processed using GDAL, GRASS and SAGA and the Makeflow and Work-queue task management software packages. Students were placed into collaborative groups to develop the separate aspects of the project . They were allowed to change teams, alter workflows, and design and develop novel code. The students were able to identify all necessary dependencies, recompile source onto the target execution platforms, and demonstrate a functional workflow, which was further improved upon by one of the group leaders over

I U1 TA 3 Daniel Mleitman U. : C ..( -_. .. .s .. . . . . Tom Leighton David Shmoys . . A ,

i .t , 77 Michael Sipser , Di.,t a-., Eva Tardos. Leighton and Plaxton on the construction of a sim- ple c log .- depth circuit (where c < 7.5) that sorts a random permutation with very high probability. puting iPOD( ). Aug-ust 1992. Vancouver. British Columbia (to appear). 20. B 1Xti

c .. U(.ii. 1. Gopal. M. [Kaplan and S. Kutten, " Distributed Control for

Belcher, Duane M. Smith, Stephen D.

PSYCOM is a unique mixed media package which combines high interest projects on the computer with a written text of expository material. It goes beyond most computer -assisted instruction which emphasizes drill and practice and testing of knowledge. A project might consist of a simulation or an actual experiment, or it might be a demonstration, a…

Group projects in computer science are normally delivered with reference to good software engineering practice. The discipline of software engineering is rapidly evolving, and the application of the latest 'agile techniques' to group projects causes a potential conflict with constraints imposed by regulating bodies on the computer science…

RAY.) &-TR-88-296 I Fin.’ Technical Report ,r 19,39 i A28 3329 F’ULT TOLERANT SOFTWARE TECHNOLOGY FOR DISTRIBUTED COMPUTER SYSTEMS Georgia Institute. GrfisABN 34-70IiWftlI NO0. IN?3. NO IACCESSION NO. 158 21 7 11. TITLE (Incld security Cassification) FAULT TOLERANT SOFTWARE FOR DISTRIBUTED COMPUTER . Technology for Distributed Computing Systems," a two year effort performed at Georgia Institute of Technology as part of the Clouds Project . The Clouds

This paper addresses structures, actions and technologies that contribute to real team development of a distributed team, and the leadership skills and tools that are used to implement that team development.

Although computerized operations have significant gains realized in many areas, one area, scheduling, has enjoyed few benefits from automation. The traditional methods of industrial engineering and operations research have not proven robust enough to handle the complexities associated with the scheduling of realistic problems. To address this need, NASA has developed the computer -aided scheduling system (COMPASS), a sophisticated, interactive scheduling tool that is in wide-spread use within NASA and the contractor community. Therefore, COMPASS provides no explicit support for the large class of problems in which several people, perhaps at various locations, build separate schedules that share a common pool of resources. This research examines the issue of distributing scheduling, as applied to application domains characterized by the partial ordering of tasks, limited resources, and time restrictions. The focus of this research is on identifying issues related to distributed scheduling, locating applicable problem domains within NASA, and suggesting areas for ongoing research. The issues that this research identifies are goals, rescheduling requirements, database support, the need for communication and coordination among individual schedulers, the potential for expert system support for scheduling, and the possibility of integrating artificially intelligent schedulers into a network of human schedulers.

MAPPER is a set of software tools designed to let users create and manipulate map projections on a personal computer (PC). The capability exists to generate five popular map projections . These include azimuthal, cylindrical, mercator, lambert, and sinusoidal projections . Data for projections are contained in five coordinate databases at various resolutions. MAPPER is managed by a system of pull-down windows. This interface allows the user to intuitively create, view and export maps to other platforms.

Chudoba, J. Adam, M. Adamová, D. Kouba, T. Mikula, A. Říkal, V. Švec, J. Uhlířová, J. Vokáč, P. Svatoš, M.

The Computing Center of the Institute of Physics (CC IoP) of the Czech Academy of Sciences serves a broad spectrum of users with various computing needs. It runs WLCG Tier-2 center for the ALICE and the ATLAS experiments the same group of services is used by astroparticle physics projects the Pierre Auger Observatory (PAO) and the Cherenkov Telescope Array (CTA). OSG stack is installed for the NOvA experiment. Other groups of users use directly local batch system. Storage capacity is distributed to several locations. DPM servers used by the ATLAS and the PAO are all in the same server room, but several xrootd servers for the ALICE experiment are operated in the Nuclear Physics Institute in Řež, about 10 km away. The storage capacity for the ATLAS and the PAO is extended by resources of the CESNET - the Czech National Grid Initiative representative. Those resources are in Plzen and Jihlava, more than 100 km away from the CC IoP. Both distant sites use a hierarchical storage solution based on disks and tapes. They installed one common dCache instance, which is published in the CC IoP BDII. ATLAS users can use these resources using the standard ATLAS tools in the same way as the local storage without noticing this geographical distribution . Computing clusters LUNA and EXMAG dedicated to users mostly from the Solid State Physics departments offer resources for parallel computing . They are part of the Czech NGI infrastructure MetaCentrum with distributed batch system based on torque with a custom scheduler. Clusters are installed remotely by the MetaCentrum team and a local contact helps only when needed. Users from IoP have exclusive access only to a part of these two clusters and take advantage of higher priorities on the rest (1500 cores in total), which can also be used by any user of the MetaCentrum. IoP researchers can also use distant resources located in several towns of the Czech Republic with a capacity of more than 12000 cores in total.

Schorr, Herbert Neuman, B. Clifford

As outlined in our continuation proposal 92-ISI-50R (revised) on contract NCC 2-539, we are (1) developing software, including a system manager and a job manager, that will manage available resources and that will enable programmers to program parallel applications in terms of a virtual configuration of processors, hiding the mapping to physical nodes (2) developing communications routines that support the abstractions implemented in item one (3) continuing the development of file and information systems based on the virtual system model and (4) incorporating appropriate security measures to allow the mechanisms developed in items 1 through 3 to be used on an open network. The goal throughout our work is to provide a uniform model that can be applied to both parallel and distributed systems. We believe that multiprocessor systems should exist in the context of distributed systems, allowing them to be more easily shared by those that need them. Our work provides the mechanisms through which nodes on multiprocessors are allocated to jobs running within the distributed system and the mechanisms through which files needed by those jobs can be located and accessed.

Schorr, Herbert Neuman, B. Clifford

As outlined in the continuation proposal 92-ISI-50R (revised) on NASA cooperative agreement NCC 2-539, the investigators are developing software, including a system manager and a job manager, that will manage available resources and that will enable programmers to develop and execute parallel applications in terms of a virtual configuration of processors, hiding the mapping to physical nodes developing communications routines that support the abstractions implemented continuing the development of file and information systems based on the Virtual System Model and incorporating appropriate security measures to allow the mechanisms developed to be used on an open network. The goal throughout the work is to provide a uniform model that can be applied to both parallel and distributed systems. The authors believe that multiprocessor systems should exist in the context of distributed systems, allowing them to be more easily shared by those that need them. The work provides the mechanisms through which nodes on multiprocessors are allocated to jobs running within the distributed system and the mechanisms through which files needed by those jobs can be located and accessed.

Schorr, Herbert Neuman, B. Clifford

As outlined in our continuation proposal 92-ISI-. OR (revised) on NASA cooperative agreement NCC2-539, we are (1) developing software, including a system manager and a job manager, that will manage available resources and that will enable programmers to develop and execute parallel applications in terms of a virtual configuration of processors, hiding the mapping to physical nodes (2) developing communications routines that support the abstractions implemented in item one (3) continuing the development of file and information systems based on the Virtual System Model and (4) incorporating appropriate security measures to allow the mechanisms developed in items 1 through 3 to be used on an open network. The goal throughout our work is to provide a uniform model that can be applied to both parallel and distributed systems. We believe that multiprocessor systems should exist in the context of distributed systems, allowing them to be more easily shared by those that need them. Our work provides the mechanisms through which nodes on multiprocessors are allocated to jobs running within the distributed system and the mechanisms through which files needed by those jobs can be located and accessed.

Schorr, Herbert Neuman, Clifford B.

As outlined in our continuation proposal 92-ISI-50R (revised) on NASA cooperative agreement NCC2-539, we are (1) developing software, including a system manager and a job manager, that will manage available resources and that will enable programmers to develop and execute parallel applications in terms of a virtual configuration of processors, hiding the mapping to physical nodes (2) developing communications routines that support the abstractions implemented in item one (3) continuing the development of file and information systems based on the Virtual System Model and (4) incorporating appropriate security measures to allow the mechanisms developed in items 1 through 3 to be used on an open network. The goal throughout our work is to provide a uniform model that can be applied to both parallel and distributed systems. We believe that multiprocessor systems should exist in the context of distributed systems, allowing them to be more easily shared by those that need them. Our work provides the mechanisms through which nodes on multiprocessors are allocated to jobs running within the distributed system and the mechanisms through which files needed by those jobs can be located and accessed.

Wang, Xin Maurer, Frank Morgan, Robert Oliveira, Josyleuda

Agile project planning plays an important part in agile software development. In distributed settings, project planning is severely impacted by the lack of face-to-face communication and the inability to share paper index cards amongst all meeting participants. To address these issues, several distributed agile planning tools were developed. The tools vary in features, functions and running platforms. In this chapter, we first summarize the requirements for distributed agile planning. Then we give an overview on existing agile planning tools. We also evaluate existing tools based on tool requirements. Finally, we present some practical advices for both designers and users of distributed agile planning tools.

Fischer, James (Technical Monitor) Merkey, Phillip

This grant supported the effort to characterize the problem domain of the Earth Science Technology Office's Computational Technologies Project , to engage the Beowulf Cluster Computing Community as well as the High Performance Computing Research Community so that we can predict the applicability of said technologies to the scientific community represented by the CT project and formulate long term strategies to provide the computational resources necessary to attain the anticipated scientific objectives of the CT project . Specifically, the goal of the evaluation effort is to use the information gathered over the course of the Round-3 investigations to quantify the trends in scientific expectations, the algorithmic requirements and capabilities of high-performance computers to satisfy this anticipated need.

Agarwal, Pankaj Owzar, Kouros

Advances in next generation sequencing (NGS) and mass spectrometry (MS) technologies have provided many new opportunities and angles for extending the scope of translational cancer research while creating tremendous challenges in data management and analysis. The resulting informatics challenge is invariably not amenable to the use of traditional computing models. Recent advances in scalable computing and associated infrastructure, particularly distributed computing for Big Data, can provide solutions for addressing these challenges. In this review, the next generation of distributed computing technologies that can address these informatics problems is described from the perspective of three key components of a computational platform, namely computing , data storage and management, and networking. A broad overview of scalable computing is provided to set the context for a detailed description of Hadoop, a technology that is being rapidly adopted for large-scale distributed computing . A proof-of-concept Hadoop cluster, set up for performance benchmarking of NGS read alignment, is described as an example of how to work with Hadoop. Finally, Hadoop is compared with a number of other current technologies for distributed computing . PMID:25983539

Agarwal, Pankaj Owzar, Kouros

Advances in next generation sequencing (NGS) and mass spectrometry (MS) technologies have provided many new opportunities and angles for extending the scope of translational cancer research while creating tremendous challenges in data management and analysis. The resulting informatics challenge is invariably not amenable to the use of traditional computing models. Recent advances in scalable computing and associated infrastructure, particularly distributed computing for Big Data, can provide solutions for addressing these challenges. In this review, the next generation of distributed computing technologies that can address these informatics problems is described from the perspective of three key components of a computational platform, namely computing , data storage and management, and networking. A broad overview of scalable computing is provided to set the context for a detailed description of Hadoop, a technology that is being rapidly adopted for large-scale distributed computing . A proof-of-concept Hadoop cluster, set up for performance benchmarking of NGS read alignment, is described as an example of how to work with Hadoop. Finally, Hadoop is compared with a number of other current technologies for distributed computing .

Florida State Council on Aging, Tallahassee.

This resource booklet was prepared to assist literacy projects and community adult education programs in determining the technology they need to serve more older persons. Section 1 contains the following reprinted articles: "The Human Touch in the Computer Age: Seniors Learn Computer Skills from Schoolkids" (Suzanne Kashuba)…

Pete Beckman, head of Argonne's Leadership Computing Facility (ALCF), discusses the Department of Energy's new $32-million Magellan project , which designed to test how cloud computing can be used for scientific research. More information: http://www.anl.gov/Media_Center/News/2009/news091014a.html

Pete Beckman, head of Argonne's Leadership Computing Facility (ALCF), discusses the Department of Energy's new $32-million Magellan project , which designed to test how cloud computing can be used for scientific research. More information: http://www.anl.gov/Media_Center/News/2009/news091014a.html

Asan, Askin Haliloglu, Zeynep

Project -based learning offers the opportunity to apply theoretical and practical knowledge, and to develop the student's group working, and collaboration skills. In this paper we presented a design of effective computer class that implements the well-known and highly accepted project -based learning paradigm. A pre-test/post-test control group…

An informal survey of individuals and a search of MEDLINE literature sought information on funding sources for computer -assisted instruction projects in dental, medical, and nursing education. General patterns are outlined, and suggestions are made for locating project funding. (MSE)

A conceptual framework is examined for task allocation in distributed systems. Application and computing system parameters critical to task allocation decision processes are discussed. Task allocation techniques are addressed which focus on achieving a balance in the load distribution among the system's processors. Equalization of computing load among the processing elements is the goal. Examples of system performance are presented for specific applications. Both static and dynamic allocation of tasks are considered and system performance is evaluated using different task allocation methodologies.

A performability-oriented conceptual framework for software rejuvenation has been constructed as a means of increasing levels of reliability and performance in distributed stateful computing . As used here, performability-oriented signifies that the construction of the framework is guided by the concept of analyzing the ability of a given computing system to deliver services with gracefully degradable performance. The framework is especially intended to support applications that involve stateful replicas of server computers .

Distributed computing systems are proliferating, owing to the availability of powerful, affordable microcomputers and inexpensive communication networks. A critical problem in developing such systems is getting application programs to interact with one another across a computer network. Remote interprogram connectivity is particularly challenging across heterogeneous environments, where applications run on different kinds of computers and operating systems. NetWorks! (trademark) is an innovative software product that provides an object-oriented messaging solution to these problems. This paper describes the design and functionality of NetWorks! and illustrates how it is being used to build complex distributed applications for NASA and in the commercial sector.

Joseph, V. Roshan Gul, Evren Ba, Shan

Space-filling properties are important in designing computer experiments. The traditional maximin and minimax distance designs only consider space-filling in the full dimensional space. This can result in poor projections onto lower dimensional spaces, which is undesirable when only a few factors are active. Restricting maximin distance design to the class of Latin hypercubes can improve one-dimensional projections , but cannot guarantee good space-filling properties in larger subspaces. We propose designs that maximize space-filling properties on projections to all subsets of factors. We call our designs maximum projection designs. As a result, our design criterion can be computed at a cost nomore » more than a design criterion that ignores projection properties.« less

Joseph, V. Roshan Gul, Evren Ba, Shan

Space-filling properties are important in designing computer experiments. The traditional maximin and minimax distance designs only consider space-filling in the full dimensional space. This can result in poor projections onto lower dimensional spaces, which is undesirable when only a few factors are active. Restricting maximin distance design to the class of Latin hypercubes can improve one-dimensional projections , but cannot guarantee good space-filling properties in larger subspaces. We propose designs that maximize space-filling properties on projections to all subsets of factors. We call our designs maximum projection designs. As a result, our design criterion can be computed at a cost nomore » more than a design criterion that ignores projection properties.« less

Calimera, Andrea Macii, Enrico Poncino, Massimo

Summary Understanding how the brain manages billions of processing units connected via kilometers of fibers and trillions of synapses, while consuming a few tens of Watts could provide the key to a completely new category of hardware (neuromorphic computing systems). In order to achieve this, a paradigm shift for computing as a whole is needed, which will see it moving away from current “bit precise” computing models and towards new techniques that exploit the stochastic behavior of simple, reliable, very fast, low-power computing devices embedded in intensely recursive architectures. In this paper we summarize how these objectives will be pursued in the Human Brain Project . PMID:24139655

The National Science Foundation has funded a five-year High Performance Computing and Communications project at the National Center for Supercomputing Applications (NCSA) for the direct implementation of several of the computing recommendations of the Astronomy and Astrophysics Survey Committee (the "Bahcall report"). This paper is a summary of the project goals and a progress report. The project will implement a prototype of the next generation of astronomical telescope systems - remotely located telescopes connected by high-speed networks to very high performance, scalable architecture computers and on-line data archives, which are accessed by astronomers over Gbit/sec networks. Specifically, a data link has been installed between the BIMA millimeter-wave synthesis array at Hat Creek, California and NCSA at Urbana, Illinois for real-time transmission of data to NCSA. Data are automatically archived, and may be browsed and retrieved by astronomers using the NCSA Mosaic software. In addition, an on-line digital library of processed images will be established. BIMA data will be processed on a very high performance distributed computing system, with I/O, user interface, and most of the software system running on the NCSA Convex C3880 supercomputer or Silicon Graphics Onyx workstations connected by HiPPI to the high performance, massively parallel Thinking Machines Corporation CM-5. The very computationally intensive algorithms for calibration and imaging of radio synthesis array observations will be optimized for the CM-5 and new algorithms which utilize the massively parallel architecture will be developed. Code running simultaneously on the distributed computers will communicate using the Data Transport Mechanism developed by NCSA. The project will also use the BLANCA Gbit/s testbed network between Urbana and Madison, Wisconsin to connect an Onyx workstation in the University of Wisconsin Astronomy Department to the NCSA CM-5, for development of long

Computers have opened up areas of map projection research which were previously too complicated to utilize, for example, using a least-squares fit to a very large number of points. One application has been in the efficient transfer of data between maps on different projections . While the transfer of moderate amounts of data is satisfactorily accomplished using the analytical map projection formulas, polynomials are more efficient for massive transfers. Suitable coefficients for the polynomials may be determined more easily for general cases using least squares instead of Taylor series. A second area of research is in the determination of a map projection fitting an unlabeled map, so that accurate data transfer can take place. The computer can test one projection after another, and include iteration where required. A third area is in the use of least squares to fit a map projection with optimum parameters to the region being mapped, so that distortion is minimized. This can be accomplished for standard conformal, equalarea, or other types of projections . Even less distortion can result if complex transformations of conformal projections are utilized. This bulletin describes several recent applications of these principles, as well as historical usage and background.

American Alliance for Health, Physical Education, and Recreation, Washington, DC.

This document contains ideas on a variety of subjects directed at the physical educator. The work was compiled by Project IDEA (Identify, Distribute , Exchange for Action). Topics include the following: (a) scheduling, (b) curriculum, (c) games, (d) specific courses, (e) life sports, (f) fitness, (g) adaptive Physical education, (h) course methods,…

In this article the author analyze a problem of data integration in a computer distributed systems. Exchange of information between different levels in integrated pyramid of enterprise process is fundamental with regard to efficient enterprise work. Communication and data exchange between levels are not always the same cause of necessity of different network protocols usage, communication medium, system response time, etc.

Schulden, Louise Sidle, Clint

The Cornell University Distributed Accounting (CUDA) system is an attempt to provide departments a software tool for better managing their finances, creating microcomputer standards, creating a vehicle for better administrative microcomputer support, and insuring local systems are consistent with central computer systems. (Author/MLW)

underwater sensor network with mobility. In preparation. [3] EvoLogics (2013), Underwater Acoustic Modems, (Product Information Guide. Wireless Communications, 9(9), 2934–2944. [21] Pompili, D. and Akyildiz, I. (2010), A multimedia cross-layer protocol for underwater acoustic sensor networks . Network Computing for Distributed Underwater Acoustic Sensors M. Barbeau E. Kranakis

Gurrola, Eric M. Rosen, Paul A. Aivazis, Michael

We are developing an extensible software framework, in response to Air Force and NASA needs for distributed computing facilities for a variety of radar applications. The objective of this work is to develop a Python based software framework, that is the framework elements of the middleware that allows developers to control processing flow on a grid in a distributed computing environment. Framework architectures to date allow developers to connect processing functions together as interchangeable objects, thereby allowing a data flow graph to be devised for a specific problem to be solved. The Pyre framework, developed at the California Institute of Technology (Caltech), and now being used as the basis for next-generation radar processing at JPL, is a Python-based software framework. We have extended the Pyre framework to include new facilities to deploy processing components as services, including components that monitor and assess the state of the distributed network for eventual real-time control of grid resources.

a di- verse group of people . Its organization isolates different aspects of the project , such as expected results, preliminary results, and technical. modeled after these procedures. " Automation: computers are commonly used to automate tasks previously performed by people many of these tasks are. people commonly con- sidered the threats anticipated to the system and mechanisms that are used to prevent those threats. Both hardware and software

Harrawood, Brian P. Agasthya, Greeshma A. Lakshmanan, Manu N. Raterman, Gretchen Kapadia, Anuj J.

A new technique for distribution of GEANT4 processes is introduced to simplify running a simulation in a parallel environment such as a tightly coupled computer cluster. Using a new C++ class derived from the GEANT4 toolkit, multiple runs forming a single simulation are managed across a local network of computers with a simple inter-node communication protocol. The class is integrated with the GEANT4 toolkit and is designed to scale from a single symmetric multiprocessing (SMP) machine to compact clusters ranging in size from tens to thousands of nodes. User designed 'work tickets' are distributed to clients using a client-server work flow model to specify the parameters for each individual run of the simulation. The new g4 Distributed RunManager class was developed and well tested in the course of our Neutron Stimulated Emission Computed Tomography (NSECT) experiments. It will be useful for anyone running GEANT4 for large discrete data sets such as covering a range of angles in computed tomography, calculating dose delivery with multiple fractions or simply speeding the through-put of a single model.

The intent of the proposed effort is the examination of the impact of the elements of parallel architectures on the performance realized in a parallel computation . To this end, three major projects are developed: a language for the expression of high level parallelism, a statistical technique for the synthesis of multicomputer interconnection networks based upon performance prediction, and a queueing model for the analysis of shared memory hierarchies.

Adam, C. Barberis, D. Crépé-Renaudin, S. De, K. Fassi, F. Stradling, A. Svatos, M. Vartapetian, A. Wolters, H.

The ATLAS Distributed Computing (ADC) group established a new Computing Run Coordinator (CRC) shift at the start of LHC Run 2 in 2015. The main goal was to rely on a person with a good overview of the ADC activities to ease the ADC experts’ workload. The CRC shifter keeps track of ADC tasks related to their fields of expertise and responsibility. At the same time, the shifter maintains a global view of the day-to-day operations of the ADC system. During Run 1, this task was accomplished by a person of the expert team called the ADC Manager on Duty (AMOD), a position that was removed during the shutdown period due to the reduced number and availability of ADC experts foreseen for Run 2. The CRC position was proposed to cover some of the AMODs former functions, while allowing more people involved in computing to participate. In this way, CRC shifters help with the training of future ADC experts. The CRC shifters coordinate daily ADC shift operations, including tracking open issues, reporting, and representing ADC in relevant meetings. The CRC also facilitates communication between the ADC experts team and the other ADC shifters. These include the Distributed Analysis Support Team (DAST), which is the first point of contact for addressing all distributed analysis questions, and the ATLAS Distributed Computing Shifters (ADCoS), which check and report problems in central services, sites, Tier-0 export, data transfers and production tasks. Finally, the CRC looks at the level of ADC activities on a weekly or monthly timescale to ensure that ADC resources are used efficiently.

Giustini, Giancarlo Andreolini, Mauro Colajanni, Michele

Current distributions of open source forensic software provide digital investigators with a large set of heterogeneous tools. Their use is not always focused on the target and requires high technical expertise. We present a new GNU/Linux live distribution , named CAINE ( Computer Aided INvestigative Environment) that contains a collection of tools wrapped up into a user friendly environment. The CAINE forensic framework introduces novel important features, aimed at filling the interoperability gap across different forensic tools. Moreover, it provides a homogeneous graphical interface that drives digital investigators during the acquisition and analysis of electronic evidence, and it offers a semi-automatic mechanism for the creation of the final report.

The operation of distributed computing systems requires comprehensive monitoring to ensure reliability and robustness. There are two components found in most monitoring systems: one being visually rich time-series graphs and another being notification systems for alerting operators under certain pre-defined conditions. In this paper the sonification of monitoring messages is explored using an architecture that fits easily within existing infrastructures based on mature opensource technologies such as ZeroMQ, Logstash, and Supercollider (a synth engine). Message attributes are mapped onto audio attributes based on broad classification of the message (continuous or discrete metrics) but keeping the audio stream subtle in nature. The benefits of audio rendering are described in the context of distributed computing operations and may provide a less intrusive way to understand the operational health of these systems.

Belov, S. D. Deng, Z. Y. Korenkov, V. V. Li, W. D. Lin, T. Ma, Z. T. Nicholson, C. Pelevanyuk, I. S. Suo, B. Trofimov, V. V. Tsaregorodtsev, A. U. Uzhinskiy, A. V. Yan, T. Yan, X. F. Zhang, X. M. Zhemchugov, A. S.

The BES-III experiment at the Institute of High Energy Physics (Beijing, China) is aimed at the precision measurements in e+e- annihilation in the energy range from 2.0 till 4.6 GeV. The world's largest samples of J/psi and psi' events and unique samples of XYZ data have been already collected. The expected increase of the data volume in the coming years required a significant evolution of the computing model, namely shift from a centralized data processing to a distributed one. This report summarizes a current design of the BES-III distributed computing system, some of key decisions and experience gained during 2 years of operations.

directly exchanging user state information. Eventcounts and sequencers correspond to semaphores in the sense that synchronization primitives are used to. and techniques are required to achieve synchronization in distributed computers without reliance on any centralized entity such as a semaphore . known solutions to the access synchronization problem was Dijkstra’s semaphore [12]. The importance of the semaphore is that it correctly addresses the

Performance gains in computer design are quickly consumed as users seek to analyze larger problems to a higher degree of accuracy. Innovative computational methods, such as parallel and distributed computing , seek to multiply the power of existing hardware technology to satisfy the computational demands of large applications. In the early stages of this project , experiments were performed using two large, coarse-grained applications, CSTEM and METCAN. These applications were parallelized on an Intel iPSC/860 hypercube. It was found that the overall speedup was very low, due to large, inherently sequential code segments present in the applications. The overall execution time T(sub par), of the application is dependent on these sequential segments. If these segments make up a significant fraction of the overall code, the application will have a poor speedup measure.

Mancini, Dario Mazzola, Germana Molfese, C. Schipani, Pietro Brescia, Massimo Marty, Laurent Rossi, Emilio

The VLT Survey Telescope (VST) is a co-operative program between the European Southern Observatory (ESO) and the INAF Capodimonte Astronomical Observatory (OAC), Naples, for the study, design, and realization of a 2.6-m wide-field optical imaging telescope to be operated at the Paranal Observatory, Chile. The telescope design, manufacturing and integration are responsibility of OAC. The VST has been specifically designed to carry out stand-alone observations in the UV to I spectral range and to supply target databases for the ESO Very Large Telescope (VLT). The control hardware is based on a large utilization of distributed embedded specialized controllers specifically designed, prototyped and manufactured by the Technology Working Group for VST project . The use of a field bus improves the whole system reliability in terms of high level flexibility, control speed and allow to reduce drastically the plant distribution in the instrument. The paper describes the philosophy and the architecture of the VST control HW with particular reference to the advantages of this distributed solution for the VST project .

Pierre Auger Observatory operates the largest system of detectors for ultra-high energy cosmic ray measurements. Comparison of theoretical models of interactions with recorded data requires thousands of computing cores for Monte Carlo simulations. Since 2007 distributed resources connected via EGI grid are successfully used. The first and the second versions of production system based on bash scripts and MySQL database were able to submit jobs to all reliable sites supporting Virtual Organization auger. For many years VO auger belongs to top ten of EGI users based on the total used computing time. Migration of the production system to DIRAC interware started in 2014. Pilot jobs improve efficiency of computing jobs and eliminate problems with small and less reliable sites used for the bulk production. The new system has also possibility to use available resources in clouds. Dirac File Catalog replaced LFC for new files, which are organized in datasets defined via metadata. CVMFS is used for software distribution since 2014. In the presentation we give a comparison of the old and the new production system and report the experience on migrating to the new system.

Whisnant, David M. Howe, Jerry J. Lever, Lisa S.

The physical chemistry classes from three colleges have collaborated on two computational chemistry projects using Quantum CAChe 3.0 and Gaussian 94W running on Pentium II PCs. Online communication by email and the World Wide Web was an important part of the collaboration. In the first project , students used molecular modeling to predict benzene derivatives that might be possible hair dyes. They used PM3 and ZINDO calculations to predict the electronic spectra of the molecules and tested the predicted spectra by comparing some with experimental measurements. They also did literature searches for real hair dyes and possible health effects. In the final phase of the project they proposed a synthetic pathway for one compound. In the second project the students were asked to predict which isomer of a small carbon cluster (C3, C4, or C5) was responsible for a series of IR lines observed in the spectrum of a carbon star. After preliminary PM3 calculations, they used ab initio calculations at the HF/6-31G(d) and MP2/6-31G(d) level to model the molecules and predict their vibrational frequencies and rotational constants. A comparison of the predictions with the experimental spectra suggested that the linear isomer of the C5 molecule was responsible for the lines.


شاهد الفيديو: Load GeoServer WMS in GeoDjango and Leaflet (شهر اكتوبر 2021).